Search (201 results, page 1 of 11)

  • × theme_ss:"Automatisches Indexieren"
  1. Stock, M.; Stock, W.G.: Literaturnachweis- und Terminologiedatenbank : die Erfassung von Fachliteratur und Fachterminologie eines Fachgebiets in einer kombinierten Datenbank (1991) 0.06
    0.05959421 = product of:
      0.23837684 = sum of:
        0.14200841 = weight(_text_:bibliographien in 3411) [ClassicSimilarity], result of:
          0.14200841 = score(doc=3411,freq=2.0), product of:
            0.18149616 = queryWeight, product of:
              7.0817666 = idf(docFreq=100, maxDocs=44218)
              0.025628656 = queryNorm
            0.782432 = fieldWeight in 3411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0817666 = idf(docFreq=100, maxDocs=44218)
              0.078125 = fieldNorm(doc=3411)
        0.024092112 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
          0.024092112 = score(doc=3411,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.42413816 = fieldWeight in 3411, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3411)
        0.024092112 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
          0.024092112 = score(doc=3411,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.42413816 = fieldWeight in 3411, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3411)
        0.024092112 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
          0.024092112 = score(doc=3411,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.42413816 = fieldWeight in 3411, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3411)
        0.024092112 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
          0.024092112 = score(doc=3411,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.42413816 = fieldWeight in 3411, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3411)
      0.25 = coord(5/20)
    
    Abstract
    In wissenschaftlichen Spezialgebieten kann über den Aufbau einer Literaturdatenbank gleichzeitig eine Terminologiedatenbank mit erstellt werden. Als Dokumentationsmethode eignet sich die Textwortmethode mit Übersetzungrelation. Mit dem Softwarepaket LBase aufgebaute Druckbildprogramme gestatten die Ausgabe von Bibliographien und Wörterbüchern
  2. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.05
    0.054483656 = product of:
      0.18161218 = sum of:
        0.027819173 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.027819173 = score(doc=3413,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.027819173 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.027819173 = score(doc=3413,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.0141288405 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.0141288405 = score(doc=3413,freq=2.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.027819173 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.027819173 = score(doc=3413,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.056206647 = product of:
          0.112413295 = sum of:
            0.112413295 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
              0.112413295 = score(doc=3413,freq=4.0), product of:
                0.13578811 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.025628656 = queryNorm
                0.82785815 = fieldWeight in 3413, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3413)
          0.5 = coord(1/2)
        0.027819173 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.027819173 = score(doc=3413,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.3 = coord(6/20)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  3. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.05
    0.054073997 = product of:
      0.15449713 = sum of:
        0.016864477 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.016864477 = score(doc=6080,freq=24.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.03218451 = product of:
          0.06436902 = sum of:
            0.06436902 = weight(_text_:nachschlagewerke in 6080) [ClassicSimilarity], result of:
              0.06436902 = score(doc=6080,freq=4.0), product of:
                0.173683 = queryWeight, product of:
                  6.7769065 = idf(docFreq=136, maxDocs=44218)
                  0.025628656 = queryNorm
                0.37061208 = fieldWeight in 6080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.7769065 = idf(docFreq=136, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6080)
          0.5 = coord(1/2)
        0.03166015 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.03166015 = score(doc=6080,freq=4.0), product of:
            0.12180787 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.025628656 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.016864477 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.016864477 = score(doc=6080,freq=24.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.023194548 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.023194548 = score(doc=6080,freq=44.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.016864477 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.016864477 = score(doc=6080,freq=24.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.016864477 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.016864477 = score(doc=6080,freq=24.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.35 = coord(7/20)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  4. Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.05
    0.049992893 = product of:
      0.16664296 = sum of:
        0.025037255 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.025037255 = score(doc=365,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.0383779 = weight(_text_:geschichte in 365) [ClassicSimilarity], result of:
          0.0383779 = score(doc=365,freq=2.0), product of:
            0.12180787 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.025628656 = queryNorm
            0.3150691 = fieldWeight in 365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.025037255 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.025037255 = score(doc=365,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.028116036 = weight(_text_:der in 365) [ClassicSimilarity], result of:
          0.028116036 = score(doc=365,freq=22.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.4911232 = fieldWeight in 365, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.025037255 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.025037255 = score(doc=365,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.025037255 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.025037255 = score(doc=365,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
      0.3 = coord(6/20)
    
    Abstract
    Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
    Theme
    Geschichte der Sacherschließung
  5. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.05
    0.04558956 = product of:
      0.15196519 = sum of:
        0.019273689 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.019273689 = score(doc=4891,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.019273689 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.019273689 = score(doc=4891,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.029905118 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.029905118 = score(doc=4891,freq=14.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.019273689 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.019273689 = score(doc=4891,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.04496532 = product of:
          0.08993064 = sum of:
            0.08993064 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
              0.08993064 = score(doc=4891,freq=4.0), product of:
                0.13578811 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.025628656 = queryNorm
                0.6622865 = fieldWeight in 4891, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4891)
          0.5 = coord(1/2)
        0.019273689 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.019273689 = score(doc=4891,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.3 = coord(6/20)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  6. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.04
    0.04289415 = product of:
      0.1429805 = sum of:
        0.02921013 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02921013 = score(doc=5671,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02921013 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02921013 = score(doc=5671,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.013986838 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.013986838 = score(doc=5671,freq=4.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02921013 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02921013 = score(doc=5671,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02921013 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02921013 = score(doc=5671,freq=18.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.012153152 = product of:
          0.024306305 = sum of:
            0.024306305 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.024306305 = score(doc=5671,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  7. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.042106524 = product of:
      0.14035508 = sum of:
        0.023849973 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.023849973 = score(doc=5195,freq=12.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.023849973 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.023849973 = score(doc=5195,freq=12.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.03280204 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.03280204 = score(doc=5195,freq=22.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.023849973 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.023849973 = score(doc=5195,freq=12.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.023849973 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.023849973 = score(doc=5195,freq=12.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.012153152 = product of:
          0.024306305 = sum of:
            0.024306305 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.024306305 = score(doc=5195,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  8. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.04
    0.040807314 = product of:
      0.13602437 = sum of:
        0.024882225 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.024882225 = score(doc=401,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.024882225 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.024882225 = score(doc=401,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.022606144 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.022606144 = score(doc=401,freq=8.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.024882225 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.024882225 = score(doc=401,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.024882225 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.024882225 = score(doc=401,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.0138893165 = product of:
          0.027778633 = sum of:
            0.027778633 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.027778633 = score(doc=401,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  9. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.04
    0.039898716 = product of:
      0.13299571 = sum of:
        0.024882225 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.024882225 = score(doc=1755,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.024882225 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.024882225 = score(doc=1755,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.019577496 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.019577496 = score(doc=1755,freq=6.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.024882225 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.024882225 = score(doc=1755,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.024882225 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.024882225 = score(doc=1755,freq=10.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.0138893165 = product of:
          0.027778633 = sum of:
            0.027778633 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.027778633 = score(doc=1755,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  10. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.04
    0.03982555 = product of:
      0.13275184 = sum of:
        0.026022455 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.026022455 = score(doc=3780,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.026022455 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.026022455 = score(doc=3780,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.019981196 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.019981196 = score(doc=3780,freq=16.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.026022455 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.026022455 = score(doc=3780,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.026022455 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.026022455 = score(doc=3780,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.008680823 = product of:
          0.017361647 = sum of:
            0.017361647 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.017361647 = score(doc=3780,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  11. Stock, W.G.: Textwortmethode (2000) 0.04
    0.03976723 = product of:
      0.13255744 = sum of:
        0.019671125 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.019671125 = score(doc=3408,freq=4.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.019671125 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.019671125 = score(doc=3408,freq=4.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.0141288405 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.0141288405 = score(doc=3408,freq=2.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.019671125 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.019671125 = score(doc=3408,freq=4.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.0397441 = product of:
          0.0794882 = sum of:
            0.0794882 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
              0.0794882 = score(doc=3408,freq=2.0), product of:
                0.13578811 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.025628656 = queryNorm
                0.58538413 = fieldWeight in 3408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3408)
          0.5 = coord(1/2)
        0.019671125 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.019671125 = score(doc=3408,freq=4.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.3 = coord(6/20)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  12. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.04
    0.039462302 = product of:
      0.131541 = sum of:
        0.016146509 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.016146509 = score(doc=494,freq=22.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.016146509 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.016146509 = score(doc=494,freq=22.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.026630146 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.026630146 = score(doc=494,freq=58.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.016146509 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.016146509 = score(doc=494,freq=22.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.040324815 = weight(_text_:erkenntnis in 494) [ClassicSimilarity], result of:
          0.040324815 = score(doc=494,freq=2.0), product of:
            0.16347922 = queryWeight, product of:
              6.378767 = idf(docFreq=203, maxDocs=44218)
              0.025628656 = queryNorm
            0.2466663 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.378767 = idf(docFreq=203, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.016146509 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.016146509 = score(doc=494,freq=22.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.3 = coord(6/20)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  13. Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020) 0.04
    0.03879422 = product of:
      0.12931406 = sum of:
        0.02334781 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.02334781 = score(doc=71,freq=46.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.02334781 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.02334781 = score(doc=71,freq=46.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.011197358 = product of:
          0.033592075 = sum of:
            0.033592075 = weight(_text_:bücher in 71) [ClassicSimilarity], result of:
              0.033592075 = score(doc=71,freq=2.0), product of:
                0.14920892 = queryWeight, product of:
                  5.8219566 = idf(docFreq=355, maxDocs=44218)
                  0.025628656 = queryNorm
                0.22513449 = fieldWeight in 71, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8219566 = idf(docFreq=355, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=71)
          0.33333334 = coord(1/3)
        0.024725469 = weight(_text_:der in 71) [ClassicSimilarity], result of:
          0.024725469 = score(doc=71,freq=50.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.4318977 = fieldWeight in 71, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.02334781 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.02334781 = score(doc=71,freq=46.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.02334781 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.02334781 = score(doc=71,freq=46.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
      0.3 = coord(6/20)
    
    Abstract
    Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
    Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
  14. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.04
    0.037655048 = product of:
      0.12551682 = sum of:
        0.022255339 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.022255339 = score(doc=3581,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.022255339 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.022255339 = score(doc=3581,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.022606144 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.022606144 = score(doc=3581,freq=8.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.022255339 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.022255339 = score(doc=3581,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.022255339 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.022255339 = score(doc=3581,freq=8.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.0138893165 = product of:
          0.027778633 = sum of:
            0.027778633 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.027778633 = score(doc=3581,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  15. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.04
    0.037251614 = product of:
      0.12417204 = sum of:
        0.022080785 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.022080785 = score(doc=1746,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.022080785 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.022080785 = score(doc=1746,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.025431912 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.025431912 = score(doc=1746,freq=18.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.022080785 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.022080785 = score(doc=1746,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.022080785 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.022080785 = score(doc=1746,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.010416987 = product of:
          0.020833975 = sum of:
            0.020833975 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.020833975 = score(doc=1746,freq=2.0), product of:
                0.08974719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025628656 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  16. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.04
    0.037202395 = product of:
      0.124007985 = sum of:
        0.02154864 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.02154864 = score(doc=2827,freq=30.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02154864 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.02154864 = score(doc=2827,freq=30.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.014511544 = product of:
          0.043534633 = sum of:
            0.043534633 = weight(_text_:lehre in 2827) [ClassicSimilarity], result of:
              0.043534633 = score(doc=2827,freq=2.0), product of:
                0.15889047 = queryWeight, product of:
                  6.199719 = idf(docFreq=243, maxDocs=44218)
                  0.025628656 = queryNorm
                0.27399147 = fieldWeight in 2827, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.199719 = idf(docFreq=243, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2827)
          0.33333334 = coord(1/3)
        0.023301879 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.023301879 = score(doc=2827,freq=34.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02154864 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.02154864 = score(doc=2827,freq=30.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02154864 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.02154864 = score(doc=2827,freq=30.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
      0.3 = coord(6/20)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Content
    Vgl. auch: http://munin.bui.haw-hamburg.de/amoll/freitext/index.php (Freitextindexierung ohne Bearbeitung der Indexate) http://munin.bui.haw-hamburg.de/amoll/stemming/index.pbp (Stemming) http://munin.bui.haw-hamburg.de/amoll/woerterbuch/index.php (wörterbuchbasierte Indexierung)
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  17. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.04
    0.036252096 = product of:
      0.14500839 = sum of:
        0.028910533 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.028910533 = score(doc=7726,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.028910533 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.028910533 = score(doc=7726,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.029366245 = weight(_text_:der in 7726) [ClassicSimilarity], result of:
          0.029366245 = score(doc=7726,freq=6.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.5129615 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.028910533 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.028910533 = score(doc=7726,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.028910533 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.028910533 = score(doc=7726,freq=6.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
      0.25 = coord(5/20)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  18. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.04
    0.0359659 = product of:
      0.1438636 = sum of:
        0.031226942 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.031226942 = score(doc=4,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.031226942 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.031226942 = score(doc=4,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.018955829 = weight(_text_:der in 4) [ClassicSimilarity], result of:
          0.018955829 = score(doc=4,freq=10.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.3311152 = fieldWeight in 4, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.031226942 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.031226942 = score(doc=4,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.031226942 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.031226942 = score(doc=4,freq=28.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
      0.25 = coord(5/20)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  19. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.04
    0.035735276 = product of:
      0.1429411 = sum of:
        0.030790182 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.030790182 = score(doc=782,freq=20.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.030790182 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.030790182 = score(doc=782,freq=20.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019780377 = weight(_text_:der in 782) [ClassicSimilarity], result of:
          0.019780377 = score(doc=782,freq=8.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.34551817 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.030790182 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.030790182 = score(doc=782,freq=20.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.030790182 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.030790182 = score(doc=782,freq=20.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.25 = coord(5/20)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  20. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.04
    0.035225388 = product of:
      0.117417954 = sum of:
        0.018400652 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.018400652 = score(doc=318,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.018400652 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.018400652 = score(doc=318,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.022622079 = product of:
          0.067866236 = sum of:
            0.067866236 = weight(_text_:bücher in 318) [ClassicSimilarity], result of:
              0.067866236 = score(doc=318,freq=4.0), product of:
                0.14920892 = queryWeight, product of:
                  5.8219566 = idf(docFreq=355, maxDocs=44218)
                  0.025628656 = queryNorm
                0.45484036 = fieldWeight in 318, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.8219566 = idf(docFreq=355, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.33333334 = coord(1/3)
        0.02119326 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.02119326 = score(doc=318,freq=18.0), product of:
            0.05724844 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.025628656 = queryNorm
            0.37019804 = fieldWeight in 318, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.018400652 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.018400652 = score(doc=318,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.018400652 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.018400652 = score(doc=318,freq=14.0), product of:
            0.056802507 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025628656 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
      0.3 = coord(6/20)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
    Content
    Lizentiatsarbeit der Philosphischen Fakultät der Universität Zürich, - Vgl. auch: http://www.ifi.unizh.ch/cl/study/lizarbeiten/lizkaufmann.pdf.

Years

Languages

  • d 167
  • e 30
  • a 1
  • m 1
  • nl 1
  • ru 1
  • sp 1
  • More… Less…

Types

  • a 147
  • x 31
  • el 21
  • m 11
  • s 5
  • d 2
  • p 2
  • h 1
  • r 1
  • More… Less…