Search (211 results, page 1 of 11)

  • × theme_ss:"Automatisches Indexieren"
  1. Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998) 0.10
    0.09779248 = product of:
      0.29337743 = sum of:
        0.12780248 = weight(_text_:grenzen in 4272) [ClassicSimilarity], result of:
          0.12780248 = score(doc=4272,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.7704083 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.018886246 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4272,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.12780248 = weight(_text_:grenzen in 4272) [ClassicSimilarity], result of:
          0.12780248 = score(doc=4272,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.7704083 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.018886246 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4272,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
      0.33333334 = coord(4/12)
    
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
  2. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.08
    0.0787928 = product of:
      0.18910272 = sum of:
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.023207584 = score(doc=1746,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  3. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.07
    0.06760517 = product of:
      0.2028155 = sum of:
        0.07530834 = weight(_text_:grenzen in 1411) [ClassicSimilarity], result of:
          0.07530834 = score(doc=1411,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.45396745 = fieldWeight in 1411, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.026099412 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.026099412 = score(doc=1411,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.07530834 = weight(_text_:grenzen in 1411) [ClassicSimilarity], result of:
          0.07530834 = score(doc=1411,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.45396745 = fieldWeight in 1411, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.026099412 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.026099412 = score(doc=1411,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.33333334 = coord(4/12)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  4. Larroche-Boutet, V.; Pöhl, K.: ¬Das Nominalsyntagna : über die Nutzbarmachung eines logico-semantischen Konzeptes für dokumentarische Fragestellungen (1993) 0.06
    0.063412495 = product of:
      0.15219 = sum of:
        0.05325104 = weight(_text_:grenzen in 5282) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5282,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.02082013 = weight(_text_:der in 5282) [ClassicSimilarity], result of:
          0.02082013 = score(doc=5282,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.326484 = fieldWeight in 5282, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.05325104 = weight(_text_:grenzen in 5282) [ClassicSimilarity], result of:
          0.05325104 = score(doc=5282,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.02082013 = weight(_text_:der in 5282) [ClassicSimilarity], result of:
          0.02082013 = score(doc=5282,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.326484 = fieldWeight in 5282, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.0040476574 = product of:
          0.020238286 = sum of:
            0.020238286 = weight(_text_:28 in 5282) [ClassicSimilarity], result of:
              0.020238286 = score(doc=5282,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.19789396 = fieldWeight in 5282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5282)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Am Anfang nachfolgender Ausführungen werden die für die Indexierung großer textmengen notwendigen strategischen Entscheidungen aufgezeigt: es müssen sowohl das Indexierungsverfahren (menschliche oder automatische Indexierung) als auch die Indexierungssparche (freie, kontrollierte oder natürliche Sprache) ausgewählt werden. Hierbei hat sich die Forschungsgruppe SYDO-LYON für natürlichsprachige automatische Vollindexierung entschieden. Auf der Grundlage der Unterscheidung zwischen prädikativen und referentiellen Textteilen wird d as Nominalsyntagma als kleinste referentielle Texteinheit definiert, dann das für die Konstituierung eines Nominalsyntagmas entscheidende Phänomen der Aktualisierung erläutert und schließlich auf die morphologischen Mittel zur Erkennung des Nominalsyntagmas hingewiesen. Alle Nominalsyntagma eines Textes werden als dessen potentielle Deskriptoren extrahiert, und Hilfsmittel für die Benutzer einer mit diesem Indexierungsverfahren arbeitenden Datenbank werden vorgestellt. Außerdem wird der begriff der Anapher (d.h. die Wiederaufnahme von Nominalsyntagmen durch Pronomen) kurz definiert, ihre Anwendung als Mittel zur Gewichtung des Deskriptorterme (durch Zählung ihrer Häufigkeit im text) aufgezeigt und morphologische uns syntaktische Regeln zur automatischen Bestimmung des von einem anaphorischen Pronomen aufgenommenen Nominalsyntagmas aufgestellt. Bevor abschließend Ziele und Grenzen der Arbeit diskutiert werden, wird noch auf einen Unterschied zwischen Nominalsyntagma und Deskriptorterm hingewiesen: das Nonimalsyntagma verweist auf ein Objekt, das ein Einzelobjekt oder eine Klasse sein kann, der Deskriptorterm verweist immer auf eine Klasse
    Date
    8.10.2000 14:28:09
  5. Lepsky, K.: Im Heuhaufen suchen - und finden : Automatische Erschließung von Internetquellen: Möglichkeiten und Grenzen (1998) 0.06
    0.056677803 = product of:
      0.17003341 = sum of:
        0.06390124 = weight(_text_:grenzen in 4655) [ClassicSimilarity], result of:
          0.06390124 = score(doc=4655,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 4655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.021115463 = weight(_text_:der in 4655) [ClassicSimilarity], result of:
          0.021115463 = score(doc=4655,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3311152 = fieldWeight in 4655, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.06390124 = weight(_text_:grenzen in 4655) [ClassicSimilarity], result of:
          0.06390124 = score(doc=4655,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 4655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.021115463 = weight(_text_:der in 4655) [ClassicSimilarity], result of:
          0.021115463 = score(doc=4655,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3311152 = fieldWeight in 4655, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
      0.33333334 = coord(4/12)
    
    Abstract
    Das Internet wird immer unübersichtlicher - auch eine Binsenweisheit, aber wohl mehr ein handfestes Problem. Abhilfe versprechen die diversen Suchmaschinen und Verzeichnisse der kommerziellen Anbieter, zu denen sich thematische Link-Sammlungen anderer Institutionen - etwas Bibliotheken - gesellen. Während die Suchmaschinen mit dem Anspruch arbeiten, das gesamte Netz zu erschließen (und diesen damit einlösen, daß sie ihre Kundschaft teilweise mit mehreren hundert Treffern nach einer Anfrage konfrontieren), haben die Anbieter ausgewählter und intellektuelle erschlossener Quellen häufig mit dem Problem mangelnder Aktualität und der Beschränktheit ihres Angebots zu kämpfen. - Der folgende Beitrag diskutiert verschiedene Verfahren, die in erheblich stärkerem Maße sowohl die Vollständigkeit als auch die Relevanz der durchsuchten beziehungsweise gefundenen Internetquellen sicherstellen sollen. In diesem Zusammenhang wird auch die Frage erörtert, welche Rolle den Bibliotheken bei der Entwicklung und Anwendung solcher Techniken zukommen könnte
  6. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.06
    0.05641941 = product of:
      0.13540658 = sum of:
        0.04260083 = weight(_text_:grenzen in 1767) [ClassicSimilarity], result of:
          0.04260083 = score(doc=1767,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.023555286 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.023555286 = score(doc=1767,freq=28.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.04260083 = weight(_text_:grenzen in 1767) [ClassicSimilarity], result of:
          0.04260083 = score(doc=1767,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.023555286 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.023555286 = score(doc=1767,freq=28.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0030943449 = product of:
          0.015471724 = sum of:
            0.015471724 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.015471724 = score(doc=1767,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  7. Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen (2018) 0.05
    0.053504806 = product of:
      0.16051441 = sum of:
        0.06390124 = weight(_text_:grenzen in 4595) [ClassicSimilarity], result of:
          0.06390124 = score(doc=4595,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 4595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
        0.016355969 = weight(_text_:der in 4595) [ClassicSimilarity], result of:
          0.016355969 = score(doc=4595,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.25648075 = fieldWeight in 4595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
        0.06390124 = weight(_text_:grenzen in 4595) [ClassicSimilarity], result of:
          0.06390124 = score(doc=4595,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 4595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
        0.016355969 = weight(_text_:der in 4595) [ClassicSimilarity], result of:
          0.016355969 = score(doc=4595,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.25648075 = fieldWeight in 4595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
      0.33333334 = coord(4/12)
    
    Abstract
    Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
  8. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.05
    0.051508363 = product of:
      0.12362007 = sum of:
        0.015580357 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.015580357 = score(doc=5671,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.034787726 = weight(_text_:wissenschaft in 5671) [ClassicSimilarity], result of:
          0.034787726 = score(doc=5671,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.30698892 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.015580357 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.015580357 = score(doc=5671,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.05225653 = weight(_text_:forschung in 5671) [ClassicSimilarity], result of:
          0.05225653 = score(doc=5671,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.376253 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.0054151034 = product of:
          0.027075516 = sum of:
            0.027075516 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.027075516 = score(doc=5671,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  9. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.05
    0.050761342 = product of:
      0.15228403 = sum of:
        0.026709184 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.026709184 = score(doc=2051,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.026709184 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.026709184 = score(doc=2051,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.08958262 = weight(_text_:forschung in 2051) [ClassicSimilarity], result of:
          0.08958262 = score(doc=2051,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.64500517 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.009283034 = product of:
          0.04641517 = sum of:
            0.04641517 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.04641517 = score(doc=2051,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  10. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.05
    0.047231507 = product of:
      0.14169452 = sum of:
        0.05325104 = weight(_text_:grenzen in 128) [ClassicSimilarity], result of:
          0.05325104 = score(doc=128,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.01759622 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.01759622 = score(doc=128,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.05325104 = weight(_text_:grenzen in 128) [ClassicSimilarity], result of:
          0.05325104 = score(doc=128,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.01759622 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.01759622 = score(doc=128,freq=10.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.33333334 = coord(4/12)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  11. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.05
    0.04570499 = product of:
      0.13711497 = sum of:
        0.04260083 = weight(_text_:grenzen in 2827) [ClassicSimilarity], result of:
          0.04260083 = score(doc=2827,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02595666 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.02595666 = score(doc=2827,freq=34.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.04260083 = weight(_text_:grenzen in 2827) [ClassicSimilarity], result of:
          0.04260083 = score(doc=2827,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02595666 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.02595666 = score(doc=2827,freq=34.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Content
    Vgl. auch: http://munin.bui.haw-hamburg.de/amoll/freitext/index.php (Freitextindexierung ohne Bearbeitung der Indexate) http://munin.bui.haw-hamburg.de/amoll/stemming/index.pbp (Stemming) http://munin.bui.haw-hamburg.de/amoll/woerterbuch/index.php (wörterbuchbasierte Indexierung)
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
  12. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.05
    0.04557414 = product of:
      0.13672242 = sum of:
        0.018886246 = weight(_text_:der in 3645) [ClassicSimilarity], result of:
          0.018886246 = score(doc=3645,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 3645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.018886246 = weight(_text_:der in 3645) [ClassicSimilarity], result of:
          0.018886246 = score(doc=3645,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 3645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.08958262 = weight(_text_:forschung in 3645) [ClassicSimilarity], result of:
          0.08958262 = score(doc=3645,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.64500517 = fieldWeight in 3645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.0093673 = product of:
          0.0468365 = sum of:
            0.0468365 = weight(_text_:29 in 3645) [ClassicSimilarity], result of:
              0.0468365 = score(doc=3645,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46638384 = fieldWeight in 3645, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3645)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Date
    23.10.1996 17:26:29
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
  13. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.042563573 = product of:
      0.12769072 = sum of:
        0.036539175 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.036539175 = score(doc=5195,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.049197268 = weight(_text_:wissenschaft in 5195) [ClassicSimilarity], result of:
          0.049197268 = score(doc=5195,freq=4.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.43414786 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.036539175 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.036539175 = score(doc=5195,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.0054151034 = product of:
          0.027075516 = sum of:
            0.027075516 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.027075516 = score(doc=5195,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  14. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.04
    0.036508784 = product of:
      0.10952635 = sum of:
        0.021807957 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.021807957 = score(doc=1755,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021807957 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.021807957 = score(doc=1755,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.059721746 = weight(_text_:forschung in 1755) [ClassicSimilarity], result of:
          0.059721746 = score(doc=1755,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.43000343 = fieldWeight in 1755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.0061886897 = product of:
          0.030943448 = sum of:
            0.030943448 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.030943448 = score(doc=1755,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  15. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.03
    0.029791873 = product of:
      0.11916749 = sum of:
        0.022257652 = weight(_text_:der in 4040) [ClassicSimilarity], result of:
          0.022257652 = score(doc=4040,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34902605 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.022257652 = weight(_text_:der in 4040) [ClassicSimilarity], result of:
          0.022257652 = score(doc=4040,freq=4.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34902605 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.07465219 = weight(_text_:forschung in 4040) [ClassicSimilarity], result of:
          0.07465219 = score(doc=4040,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.5375043 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.25 = coord(3/12)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  16. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.03
    0.029492449 = product of:
      0.117969796 = sum of:
        0.022033952 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.022033952 = score(doc=953,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.022033952 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.022033952 = score(doc=953,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.07390189 = weight(_text_:forschung in 953) [ClassicSimilarity], result of:
          0.07390189 = score(doc=953,freq=4.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.5321021 = fieldWeight in 953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
      0.25 = coord(3/12)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
  17. Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999) 0.03
    0.026595451 = product of:
      0.106381804 = sum of:
        0.033312205 = weight(_text_:der in 4656) [ClassicSimilarity], result of:
          0.033312205 = score(doc=4656,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5223744 = fieldWeight in 4656, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.039757397 = weight(_text_:wissenschaft in 4656) [ClassicSimilarity], result of:
          0.039757397 = score(doc=4656,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.35084447 = fieldWeight in 4656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.033312205 = weight(_text_:der in 4656) [ClassicSimilarity], result of:
          0.033312205 = score(doc=4656,freq=14.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5223744 = fieldWeight in 4656, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
      0.25 = coord(3/12)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.325-330
  18. Lück, W.: Erfahrungen mit dem automatischen Indexierungssystem AIR/PHYS (1988) 0.02
    0.024352146 = product of:
      0.097408585 = sum of:
        0.018886246 = weight(_text_:der in 526) [ClassicSimilarity], result of:
          0.018886246 = score(doc=526,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.059636094 = weight(_text_:wissenschaft in 526) [ClassicSimilarity], result of:
          0.059636094 = score(doc=526,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.5262667 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.018886246 = weight(_text_:der in 526) [ClassicSimilarity], result of:
          0.018886246 = score(doc=526,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
      0.25 = coord(3/12)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  19. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.02
    0.024352146 = product of:
      0.097408585 = sum of:
        0.018886246 = weight(_text_:der in 527) [ClassicSimilarity], result of:
          0.018886246 = score(doc=527,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.059636094 = weight(_text_:wissenschaft in 527) [ClassicSimilarity], result of:
          0.059636094 = score(doc=527,freq=2.0), product of:
            0.11331915 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.028548526 = queryNorm
            0.5262667 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.018886246 = weight(_text_:der in 527) [ClassicSimilarity], result of:
          0.018886246 = score(doc=527,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
      0.25 = coord(3/12)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  20. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.02
    0.024304902 = product of:
      0.072914705 = sum of:
        0.01990785 = weight(_text_:der in 3081) [ClassicSimilarity], result of:
          0.01990785 = score(doc=3081,freq=20.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3121784 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.01990785 = weight(_text_:der in 3081) [ClassicSimilarity], result of:
          0.01990785 = score(doc=3081,freq=20.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.3121784 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.029860873 = weight(_text_:forschung in 3081) [ClassicSimilarity], result of:
          0.029860873 = score(doc=3081,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.21500172 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.0032381255 = product of:
          0.016190628 = sum of:
            0.016190628 = weight(_text_:28 in 3081) [ClassicSimilarity], result of:
              0.016190628 = score(doc=3081,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15831517 = fieldWeight in 3081, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Content
    Vgl.: https://www.ibi.hu-berlin.de/de/archiv/forschung/prom_habil/dissertationen/Tavakolizadeh-Ravari2007. Vgl. auch: http://mravari.blogfa.com/post-20.aspxgl.
    Date
    24. 8.2016 13:45:28

Years

Languages

Types

  • a 161
  • x 28
  • el 24
  • m 10
  • s 4
  • d 2
  • p 2
  • r 1
  • More… Less…