Search (201 results, page 1 of 11)

  • × theme_ss:"Automatisches Indexieren"
  1. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.14
    0.13710912 = product of:
      0.31992126 = sum of:
        0.09632757 = weight(_text_:mathematik in 1055) [ClassicSimilarity], result of:
          0.09632757 = score(doc=1055,freq=4.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.52404976 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.026229626 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.026229626 = score(doc=1055,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.026643077 = weight(_text_:der in 1055) [ClassicSimilarity], result of:
          0.026643077 = score(doc=1055,freq=12.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.36271852 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.09632757 = weight(_text_:mathematik in 1055) [ClassicSimilarity], result of:
          0.09632757 = score(doc=1055,freq=4.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.52404976 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.026229626 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.026229626 = score(doc=1055,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.048163787 = product of:
          0.09632757 = sum of:
            0.09632757 = weight(_text_:mathematik in 1055) [ClassicSimilarity], result of:
              0.09632757 = score(doc=1055,freq=4.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.52404976 = fieldWeight in 1055, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
    Object
    Zentralblatt für Mathematik
  2. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.13
    0.13499464 = product of:
      0.377985 = sum of:
        0.035694003 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.035694003 = score(doc=3413,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.14423434 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14423434 = score(doc=3413,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.018128319 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.018128319 = score(doc=3413,freq=2.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.14423434 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.14423434 = score(doc=3413,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.035694003 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.035694003 = score(doc=3413,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.35714287 = coord(5/14)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  3. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.13
    0.13105708 = product of:
      0.30579984 = sum of:
        0.09081851 = weight(_text_:mathematik in 7697) [ClassicSimilarity], result of:
          0.09081851 = score(doc=7697,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.49407884 = fieldWeight in 7697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.020191576 = weight(_text_:und in 7697) [ClassicSimilarity], result of:
          0.020191576 = score(doc=7697,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.27704588 = fieldWeight in 7697, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.03837042 = weight(_text_:der in 7697) [ClassicSimilarity], result of:
          0.03837042 = score(doc=7697,freq=14.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.5223744 = fieldWeight in 7697, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.09081851 = weight(_text_:mathematik in 7697) [ClassicSimilarity], result of:
          0.09081851 = score(doc=7697,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.49407884 = fieldWeight in 7697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.020191576 = weight(_text_:und in 7697) [ClassicSimilarity], result of:
          0.020191576 = score(doc=7697,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.27704588 = fieldWeight in 7697, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.045409255 = product of:
          0.09081851 = sum of:
            0.09081851 = weight(_text_:mathematik in 7697) [ClassicSimilarity], result of:
              0.09081851 = score(doc=7697,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.49407884 = fieldWeight in 7697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7697)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  4. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.12
    0.117435746 = product of:
      0.27401674 = sum of:
        0.079466194 = weight(_text_:mathematik in 953) [ClassicSimilarity], result of:
          0.079466194 = score(doc=953,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.024985801 = weight(_text_:und in 953) [ClassicSimilarity], result of:
          0.024985801 = score(doc=953,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34282678 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.025379645 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.025379645 = score(doc=953,freq=8.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.079466194 = weight(_text_:mathematik in 953) [ClassicSimilarity], result of:
          0.079466194 = score(doc=953,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.024985801 = weight(_text_:und in 953) [ClassicSimilarity], result of:
          0.024985801 = score(doc=953,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34282678 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 953) [ClassicSimilarity], result of:
              0.079466194 = score(doc=953,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 953, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=953)
          0.5 = coord(1/2)
      0.42857143 = coord(6/14)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Footnote
    Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
  5. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.11
    0.11378729 = product of:
      0.3186044 = sum of:
        0.02472953 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.02472953 = score(doc=4891,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.11538747 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.11538747 = score(doc=4891,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.03837042 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.03837042 = score(doc=4891,freq=14.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.11538747 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.11538747 = score(doc=4891,freq=4.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.02472953 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.02472953 = score(doc=4891,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.35714287 = coord(5/14)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  6. Stock, W.G.: Textwortmethode (2000) 0.10
    0.09735194 = product of:
      0.27258542 = sum of:
        0.02523947 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02523947 = score(doc=3408,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.10198908 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.10198908 = score(doc=3408,freq=2.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.018128319 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.018128319 = score(doc=3408,freq=2.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.10198908 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.10198908 = score(doc=3408,freq=2.0), product of:
            0.17422591 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.03288341 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.02523947 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02523947 = score(doc=3408,freq=4.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.35714287 = coord(5/14)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  7. Gödert, W.: Detecting multiword phrases in mathematical text corpora (2012) 0.05
    0.048652776 = product of:
      0.22704628 = sum of:
        0.09081851 = weight(_text_:mathematik in 466) [ClassicSimilarity], result of:
          0.09081851 = score(doc=466,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.49407884 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0625 = fieldNorm(doc=466)
        0.09081851 = weight(_text_:mathematik in 466) [ClassicSimilarity], result of:
          0.09081851 = score(doc=466,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.49407884 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0625 = fieldNorm(doc=466)
        0.045409255 = product of:
          0.09081851 = sum of:
            0.09081851 = weight(_text_:mathematik in 466) [ClassicSimilarity], result of:
              0.09081851 = score(doc=466,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.49407884 = fieldWeight in 466, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0625 = fieldNorm(doc=466)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
  8. Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.04
    0.042733062 = product of:
      0.14956571 = sum of:
        0.049241606 = weight(_text_:geschichte in 365) [ClassicSimilarity], result of:
          0.049241606 = score(doc=365,freq=2.0), product of:
            0.15628827 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03288341 = queryNorm
            0.3150691 = fieldWeight in 365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.0321246 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.0321246 = score(doc=365,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.0360749 = weight(_text_:der in 365) [ClassicSimilarity], result of:
          0.0360749 = score(doc=365,freq=22.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.4911232 = fieldWeight in 365, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.0321246 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.0321246 = score(doc=365,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
      0.2857143 = coord(4/14)
    
    Abstract
    Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
    Theme
    Geschichte der Sacherschließung
  9. Daudaravicius, V.: ¬A framework for keyphrase extraction from scientific journals (2016) 0.04
    0.042571176 = product of:
      0.19866548 = sum of:
        0.079466194 = weight(_text_:mathematik in 2930) [ClassicSimilarity], result of:
          0.079466194 = score(doc=2930,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2930)
        0.079466194 = weight(_text_:mathematik in 2930) [ClassicSimilarity], result of:
          0.079466194 = score(doc=2930,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.432319 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2930)
        0.039733097 = product of:
          0.079466194 = sum of:
            0.079466194 = weight(_text_:mathematik in 2930) [ClassicSimilarity], result of:
              0.079466194 = score(doc=2930,freq=2.0), product of:
                0.1838138 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03288341 = queryNorm
                0.432319 = fieldWeight in 2930, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2930)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Field
    Mathematik
  10. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.03
    0.03396663 = product of:
      0.11888321 = sum of:
        0.030601231 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.030601231 = score(doc=5195,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.04208738 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.04208738 = score(doc=5195,freq=22.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.030601231 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.030601231 = score(doc=5195,freq=12.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.015593368 = product of:
          0.031186735 = sum of:
            0.031186735 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.031186735 = score(doc=5195,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  11. Greiner-Petter, A.; Schubotz, M.; Cohl, H.S.; Gipp, B.: Semantic preserving bijective mappings for expressions involving special functions between computer algebra systems and document preparation systems (2019) 0.03
    0.03301045 = product of:
      0.15404876 = sum of:
        0.045409255 = weight(_text_:mathematik in 5499) [ClassicSimilarity], result of:
          0.045409255 = score(doc=5499,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.24703942 = fieldWeight in 5499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03125 = fieldNorm(doc=5499)
        0.045409255 = weight(_text_:mathematik in 5499) [ClassicSimilarity], result of:
          0.045409255 = score(doc=5499,freq=2.0), product of:
            0.1838138 = queryWeight, product of:
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03288341 = queryNorm
            0.24703942 = fieldWeight in 5499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5898643 = idf(docFreq=448, maxDocs=44218)
              0.03125 = fieldNorm(doc=5499)
        0.06323025 = sum of:
          0.045409255 = weight(_text_:mathematik in 5499) [ClassicSimilarity], result of:
            0.045409255 = score(doc=5499,freq=2.0), product of:
              0.1838138 = queryWeight, product of:
                5.5898643 = idf(docFreq=448, maxDocs=44218)
                0.03288341 = queryNorm
              0.24703942 = fieldWeight in 5499, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.5898643 = idf(docFreq=448, maxDocs=44218)
                0.03125 = fieldNorm(doc=5499)
          0.017820992 = weight(_text_:22 in 5499) [ClassicSimilarity], result of:
            0.017820992 = score(doc=5499,freq=2.0), product of:
              0.1151521 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03288341 = queryNorm
              0.15476047 = fieldWeight in 5499, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5499)
      0.21428572 = coord(3/14)
    
    Date
    20. 1.2015 18:30:22
    Field
    Mathematik
  12. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.03
    0.03247406 = product of:
      0.1136592 = sum of:
        0.04062225 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.04062225 = score(doc=6080,freq=4.0), product of:
            0.15628827 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03288341 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.021638338 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.021638338 = score(doc=6080,freq=24.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.029760273 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.029760273 = score(doc=6080,freq=44.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.021638338 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.021638338 = score(doc=6080,freq=24.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.2857143 = coord(4/14)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.03
    0.031622194 = product of:
      0.110677674 = sum of:
        0.031925686 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.031925686 = score(doc=401,freq=10.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.02900531 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.02900531 = score(doc=401,freq=8.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.031925686 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.031925686 = score(doc=401,freq=10.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.017820992 = product of:
          0.035641983 = sum of:
            0.035641983 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.035641983 = score(doc=401,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  14. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.03
    0.030999113 = product of:
      0.10849689 = sum of:
        0.0374787 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.0374787 = score(doc=5671,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.01794612 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.01794612 = score(doc=5671,freq=4.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.0374787 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.0374787 = score(doc=5671,freq=18.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.015593368 = product of:
          0.031186735 = sum of:
            0.031186735 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.031186735 = score(doc=5671,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  15. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.03
    0.030511916 = product of:
      0.1067917 = sum of:
        0.031925686 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.031925686 = score(doc=1755,freq=10.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.025119336 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.025119336 = score(doc=1755,freq=6.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.031925686 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.031925686 = score(doc=1755,freq=10.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.017820992 = product of:
          0.035641983 = sum of:
            0.035641983 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.035641983 = score(doc=1755,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  16. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.03
    0.029696202 = product of:
      0.1039367 = sum of:
        0.028555201 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.028555201 = score(doc=3581,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02900531 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.02900531 = score(doc=3581,freq=8.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.028555201 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.028555201 = score(doc=3581,freq=8.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.017820992 = product of:
          0.035641983 = sum of:
            0.035641983 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.035641983 = score(doc=3581,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  17. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.029586514 = product of:
      0.103552796 = sum of:
        0.03338868 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.03338868 = score(doc=3780,freq=28.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.025637314 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.025637314 = score(doc=3780,freq=16.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.03338868 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.03338868 = score(doc=3780,freq=28.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.011138121 = product of:
          0.022276241 = sum of:
            0.022276241 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.022276241 = score(doc=3780,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  18. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.029331198 = product of:
      0.10265919 = sum of:
        0.028331235 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.028331235 = score(doc=1746,freq=14.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.032630973 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.032630973 = score(doc=1746,freq=18.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028331235 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.028331235 = score(doc=1746,freq=14.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.013365744 = product of:
          0.026731487 = sum of:
            0.026731487 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.026731487 = score(doc=1746,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  19. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.02866545 = product of:
      0.10032907 = sum of:
        0.0214164 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.0214164 = score(doc=2051,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.030764777 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.030764777 = score(doc=2051,freq=4.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.0214164 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.0214164 = score(doc=2051,freq=2.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.026731487 = product of:
          0.053462975 = sum of:
            0.053462975 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.053462975 = score(doc=2051,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  20. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.03
    0.027074939 = product of:
      0.09476228 = sum of:
        0.021638338 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.021638338 = score(doc=5344,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.03589224 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.03589224 = score(doc=5344,freq=16.0), product of:
            0.073453866 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03288341 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.021638338 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.021638338 = score(doc=5344,freq=6.0), product of:
            0.072881706 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03288341 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.015593368 = product of:
          0.031186735 = sum of:
            0.031186735 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.031186735 = score(doc=5344,freq=2.0), product of:
                0.1151521 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03288341 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.

Years

Languages

  • d 167
  • e 31
  • a 1
  • m 1
  • nl 1
  • ru 1
  • More… Less…

Types

  • a 147
  • x 31
  • el 23
  • m 11
  • s 5
  • d 2
  • p 2
  • h 1
  • r 1
  • More… Less…