Search (49 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2000 TO 2010}
  1. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.11
    0.114609726 = product of:
      0.2813148 = sum of:
        0.06803243 = weight(_text_:nachschlagewerke in 6080) [ClassicSimilarity], result of:
          0.06803243 = score(doc=6080,freq=4.0), product of:
            0.18356775 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.027087249 = queryNorm
            0.37061208 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.017824277 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.017824277 = score(doc=6080,freq=24.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.0121898 = weight(_text_:aus in 6080) [ClassicSimilarity], result of:
          0.0121898 = score(doc=6080,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.13191749 = fieldWeight in 6080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.01609926 = weight(_text_:dem in 6080) [ClassicSimilarity], result of:
          0.01609926 = score(doc=6080,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.18028705 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.02451461 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.02451461 = score(doc=6080,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.017824277 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.017824277 = score(doc=6080,freq=24.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.02451461 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.02451461 = score(doc=6080,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.033462014 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.033462014 = score(doc=6080,freq=4.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.02451461 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.02451461 = score(doc=6080,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.02451461 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.02451461 = score(doc=6080,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.017824277 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.017824277 = score(doc=6080,freq=24.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.4074074 = coord(11/27)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  2. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.11
    0.10701752 = product of:
      0.2889473 = sum of:
        0.020370604 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.020370604 = score(doc=4891,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.0278624 = weight(_text_:aus in 4891) [ClassicSimilarity], result of:
          0.0278624 = score(doc=4891,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.02602033 = weight(_text_:dem in 4891) [ClassicSimilarity], result of:
          0.02602033 = score(doc=4891,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.031607095 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.031607095 = score(doc=4891,freq=14.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.020370604 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.020370604 = score(doc=4891,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.031607095 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.031607095 = score(doc=4891,freq=14.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.031607095 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.031607095 = score(doc=4891,freq=14.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.031607095 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.031607095 = score(doc=4891,freq=14.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.020370604 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.020370604 = score(doc=4891,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.047524408 = product of:
          0.095048815 = sum of:
            0.095048815 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
              0.095048815 = score(doc=4891,freq=4.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.6622865 = fieldWeight in 4891, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4891)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  3. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.10
    0.100440405 = product of:
      0.24653554 = sum of:
        0.032969866 = weight(_text_:allgemeine in 1767) [ClassicSimilarity], result of:
          0.032969866 = score(doc=1767,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.23193093 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.023521947 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.023521947 = score(doc=1767,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0278624 = weight(_text_:aus in 1767) [ClassicSimilarity], result of:
          0.0278624 = score(doc=1767,freq=8.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 1767, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018399153 = weight(_text_:dem in 1767) [ClassicSimilarity], result of:
          0.018399153 = score(doc=1767,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20604233 = fieldWeight in 1767, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.02234959 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.02234959 = score(doc=1767,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.023521947 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.023521947 = score(doc=1767,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.02234959 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.02234959 = score(doc=1767,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.02234959 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.02234959 = score(doc=1767,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.02234959 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.02234959 = score(doc=1767,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.023521947 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.023521947 = score(doc=1767,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0073398966 = product of:
          0.014679793 = sum of:
            0.014679793 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.014679793 = score(doc=1767,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.4074074 = coord(11/27)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  4. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.09
    0.08800268 = product of:
      0.23760724 = sum of:
        0.02333746 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.02333746 = score(doc=1746,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.029552538 = weight(_text_:aus in 1746) [ClassicSimilarity], result of:
          0.029552538 = score(doc=1746,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.3198163 = fieldWeight in 1746, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.019515248 = weight(_text_:dem in 1746) [ClassicSimilarity], result of:
          0.019515248 = score(doc=1746,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.21854089 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.026879309 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.026879309 = score(doc=1746,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.02333746 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.02333746 = score(doc=1746,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.026879309 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.026879309 = score(doc=1746,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.026879309 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.026879309 = score(doc=1746,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.026879309 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.026879309 = score(doc=1746,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.02333746 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.02333746 = score(doc=1746,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.011009844 = product of:
          0.022019688 = sum of:
            0.022019688 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.022019688 = score(doc=1746,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  5. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.09
    0.086157195 = product of:
      0.25847158 = sum of:
        0.04121233 = weight(_text_:allgemeine in 1411) [ClassicSimilarity], result of:
          0.04121233 = score(doc=1411,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.28991365 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.022051824 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.022051824 = score(doc=1411,freq=18.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.024763495 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.024763495 = score(doc=1411,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.022051824 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.022051824 = score(doc=1411,freq=18.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.024763495 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.024763495 = score(doc=1411,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.024763495 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.024763495 = score(doc=1411,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.05204982 = weight(_text_:allgemeinen in 1411) [ClassicSimilarity], result of:
          0.05204982 = score(doc=1411,freq=2.0), product of:
            0.15975504 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027087249 = queryNorm
            0.3258102 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.024763495 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.024763495 = score(doc=1411,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.022051824 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.022051824 = score(doc=1411,freq=18.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.33333334 = coord(9/27)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  6. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.08
    0.07995667 = product of:
      0.23987001 = sum of:
        0.029402435 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.029402435 = score(doc=3413,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.03252541 = weight(_text_:dem in 3413) [ClassicSimilarity], result of:
          0.03252541 = score(doc=3413,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3642348 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.014932949 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3413,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.029402435 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.029402435 = score(doc=3413,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.014932949 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3413,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.014932949 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3413,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.014932949 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3413,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.029402435 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.029402435 = score(doc=3413,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.05940551 = product of:
          0.11881102 = sum of:
            0.11881102 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
              0.11881102 = score(doc=3413,freq=4.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.82785815 = fieldWeight in 3413, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3413)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
    Source
    Auf dem Weg zur Informationskultur: Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag, Hrsg.: T.A. Schröder
  7. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.08
    0.077993855 = product of:
      0.23398156 = sum of:
        0.02437921 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02437921 = score(doc=4283,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.030161936 = weight(_text_:aus in 4283) [ClassicSimilarity], result of:
          0.030161936 = score(doc=4283,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.32641116 = fieldWeight in 4283, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.02299894 = weight(_text_:dem in 4283) [ClassicSimilarity], result of:
          0.02299894 = score(doc=4283,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.026920758 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.026920758 = score(doc=4283,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.02437921 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02437921 = score(doc=4283,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.026920758 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.026920758 = score(doc=4283,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.026920758 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.026920758 = score(doc=4283,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.026920758 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.026920758 = score(doc=4283,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.02437921 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02437921 = score(doc=4283,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.33333334 = coord(9/27)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  8. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und automatische Dokumenterschließung : Ergebnisse des DFG-Projekts KASCADE (2000) 0.07
    0.07435824 = product of:
      0.2230747 = sum of:
        0.028808383 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.028808383 = score(doc=4966,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.0278624 = weight(_text_:aus in 4966) [ClassicSimilarity], result of:
          0.0278624 = score(doc=4966,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 4966, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.02602033 = weight(_text_:dem in 4966) [ClassicSimilarity], result of:
          0.02602033 = score(doc=4966,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 4966, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.020691702 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.020691702 = score(doc=4966,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.028808383 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.028808383 = score(doc=4966,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.020691702 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.020691702 = score(doc=4966,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.020691702 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.020691702 = score(doc=4966,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.020691702 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.020691702 = score(doc=4966,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.028808383 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.028808383 = score(doc=4966,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
      0.33333334 = coord(9/27)
    
    Abstract
    Der Beitrag befasst sich mit den Zielen, Inhalten und Ergebnissen des von der DFG geförderten Projekts KASCADE. Für KASCADE wurden Katalogdaten aus dem Fachbereich Rechtswissenschafft um Inhaltsverzeichnisse angereichert. Die angereicherten Titeldaten wurden mit einem erweiterten MILOS-Verfahren automatisch indexiert sowie mit den beiden linguistisch und statistisch basierten Verfahren SELIX und THEAS zusätzlich erschlossen. In einem umfangreichen Retrievaltest wurden die Ergebnisse der automatischen Indexierung und Gewichtung untersucht
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.4, S.305-316
  9. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.07
    0.07004026 = product of:
      0.21012078 = sum of:
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.0121898 = weight(_text_:aus in 494) [ClassicSimilarity], result of:
          0.0121898 = score(doc=494,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.13191749 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.03415168 = weight(_text_:dem in 494) [ClassicSimilarity], result of:
          0.03415168 = score(doc=494,freq=18.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.38244656 = fieldWeight in 494, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.33333334 = coord(9/27)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  10. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.07
    0.0693738 = product of:
      0.20812139 = sum of:
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.019701693 = weight(_text_:aus in 6078) [ClassicSimilarity], result of:
          0.019701693 = score(doc=6078,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.013010165 = weight(_text_:dem in 6078) [ClassicSimilarity], result of:
          0.013010165 = score(doc=6078,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.14569393 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.33333334 = coord(9/27)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  11. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.07
    0.06658553 = product of:
      0.19975659 = sum of:
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.0278624 = weight(_text_:aus in 4031) [ClassicSimilarity], result of:
          0.0278624 = score(doc=4031,freq=8.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 4031, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.013010165 = weight(_text_:dem in 4031) [ClassicSimilarity], result of:
          0.013010165 = score(doc=4031,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.14569393 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.33333334 = coord(9/27)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  12. Stock, W.G.: Textwortmethode (2000) 0.07
    0.065545075 = product of:
      0.19663522 = sum of:
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.03252541 = weight(_text_:dem in 3408) [ClassicSimilarity], result of:
          0.03252541 = score(doc=3408,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3642348 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.042006038 = product of:
          0.084012076 = sum of:
            0.084012076 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
              0.084012076 = score(doc=3408,freq=2.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.58538413 = fieldWeight in 3408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3408)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
    Source
    Auf dem Weg zur Informationskultur: Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag, Hrsg.: T.A. Schröder
  13. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.06
    0.06383614 = product of:
      0.19150841 = sum of:
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0139312 = weight(_text_:aus in 2543) [ClassicSimilarity], result of:
          0.0139312 = score(doc=2543,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.15076284 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.018399153 = weight(_text_:dem in 2543) [ClassicSimilarity], result of:
          0.018399153 = score(doc=2543,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20604233 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.33333334 = coord(9/27)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  14. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.06
    0.061712366 = product of:
      0.1851371 = sum of:
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.0139312 = weight(_text_:aus in 861) [ClassicSimilarity], result of:
          0.0139312 = score(doc=861,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.15076284 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02602033 = weight(_text_:dem in 861) [ClassicSimilarity], result of:
          0.02602033 = score(doc=861,freq=8.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 861, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.33333334 = coord(9/27)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  15. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.06
    0.058221094 = product of:
      0.17466328 = sum of:
        0.015277953 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.015277953 = score(doc=883,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.029552538 = weight(_text_:aus in 883) [ClassicSimilarity], result of:
          0.029552538 = score(doc=883,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.3198163 = fieldWeight in 883, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.027598727 = weight(_text_:dem in 883) [ClassicSimilarity], result of:
          0.027598727 = score(doc=883,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3090635 = fieldWeight in 883, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.017919539 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.017919539 = score(doc=883,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.015277953 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.015277953 = score(doc=883,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.017919539 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.017919539 = score(doc=883,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.017919539 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.017919539 = score(doc=883,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.017919539 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.017919539 = score(doc=883,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.015277953 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.015277953 = score(doc=883,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
      0.33333334 = coord(9/27)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  16. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.05
    0.05470423 = product of:
      0.16411269 = sum of:
        0.01992815 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01992815 = score(doc=6077,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.0121898 = weight(_text_:aus in 6077) [ClassicSimilarity], result of:
          0.0121898 = score(doc=6077,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.13191749 = fieldWeight in 6077, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.019717483 = weight(_text_:dem in 6077) [ClassicSimilarity], result of:
          0.019717483 = score(doc=6077,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.22080563 = fieldWeight in 6077, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01810524 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.01810524 = score(doc=6077,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01992815 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01992815 = score(doc=6077,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01810524 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.01810524 = score(doc=6077,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01810524 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.01810524 = score(doc=6077,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01810524 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.01810524 = score(doc=6077,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01992815 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01992815 = score(doc=6077,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.33333334 = coord(9/27)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.05
    0.0537589 = product of:
      0.18143629 = sum of:
        0.019723753 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.019723753 = score(doc=6386,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020896798 = weight(_text_:aus in 6386) [ClassicSimilarity], result of:
          0.020896798 = score(doc=6386,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22614425 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.025342057 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.025342057 = score(doc=6386,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.019723753 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.019723753 = score(doc=6386,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.025342057 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.025342057 = score(doc=6386,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.025342057 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.025342057 = score(doc=6386,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.025342057 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.025342057 = score(doc=6386,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.019723753 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.019723753 = score(doc=6386,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.2962963 = coord(8/27)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  18. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.05
    0.053736947 = product of:
      0.16121083 = sum of:
        0.01800524 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.01800524 = score(doc=2432,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017414 = weight(_text_:aus in 2432) [ClassicSimilarity], result of:
          0.017414 = score(doc=2432,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.18845356 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.02299894 = weight(_text_:dem in 2432) [ClassicSimilarity], result of:
          0.02299894 = score(doc=2432,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 2432, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.016695544 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.016695544 = score(doc=2432,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.01800524 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.01800524 = score(doc=2432,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.016695544 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.016695544 = score(doc=2432,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.016695544 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.016695544 = score(doc=2432,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.016695544 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.016695544 = score(doc=2432,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.01800524 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.01800524 = score(doc=2432,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.33333334 = coord(9/27)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  19. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.05
    0.05357526 = product of:
      0.1808165 = sum of:
        0.023521947 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.023521947 = score(doc=3581,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02389272 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.02389272 = score(doc=3581,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.023521947 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.023521947 = score(doc=3581,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02389272 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.02389272 = score(doc=3581,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02389272 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.02389272 = score(doc=3581,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02389272 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.02389272 = score(doc=3581,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.023521947 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.023521947 = score(doc=3581,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.014679793 = product of:
          0.029359587 = sum of:
            0.029359587 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.029359587 = score(doc=3581,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.2962963 = coord(8/27)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  20. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.05
    0.053359285 = product of:
      0.18008758 = sum of:
        0.014701217 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.014701217 = score(doc=2377,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.03252541 = weight(_text_:dem in 2377) [ClassicSimilarity], result of:
          0.03252541 = score(doc=2377,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3642348 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.025864627 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.025864627 = score(doc=2377,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.014701217 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.014701217 = score(doc=2377,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.025864627 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.025864627 = score(doc=2377,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.025864627 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.025864627 = score(doc=2377,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.025864627 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.025864627 = score(doc=2377,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.014701217 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.014701217 = score(doc=2377,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
      0.2962963 = coord(8/27)
    
    Abstract
    Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand des Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg. Günter Peters berichtete unter anderem über das System DocCat, dem er eine erhebliche Kompetenz attestierte.
    Footnote
    Beitrag anläßlich der 27. Jahrestagung Gesellschaft für Klassifikation e.V.

Languages

  • d 46
  • e 3
  • More… Less…

Types

  • a 29
  • x 14
  • el 4
  • m 3
  • p 1
  • More… Less…