Search (56 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2000 TO 2010}
  1. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.05
    0.054087337 = product of:
      0.18029112 = sum of:
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.01180504 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.01180504 = score(doc=5671,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.018905045 = weight(_text_:im in 5671) [ClassicSimilarity], result of:
          0.018905045 = score(doc=5671,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.30917975 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.016055353 = weight(_text_:21 in 5671) [ClassicSimilarity], result of:
          0.016055353 = score(doc=5671,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.23959327 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.010257389 = product of:
          0.020514779 = sum of:
            0.020514779 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.020514779 = score(doc=5671,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.3 = coord(9/30)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    21. 2.1997 19:37:24
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  2. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.05
    0.051945776 = product of:
      0.17315258 = sum of:
        0.03291062 = weight(_text_:allgemeine in 1411) [ClassicSimilarity], result of:
          0.03291062 = score(doc=1411,freq=2.0), product of:
            0.11351869 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.021630857 = queryNorm
            0.28991365 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.017609756 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.017609756 = score(doc=1411,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.017609756 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.017609756 = score(doc=1411,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.019775193 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.019775193 = score(doc=1411,freq=22.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.017609756 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.017609756 = score(doc=1411,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.017609756 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.017609756 = score(doc=1411,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.023388928 = weight(_text_:im in 1411) [ClassicSimilarity], result of:
          0.023388928 = score(doc=1411,freq=12.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.38251072 = fieldWeight in 1411, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.009029042 = weight(_text_:20 in 1411) [ClassicSimilarity], result of:
          0.009029042 = score(doc=1411,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.15185234 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.017609756 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.017609756 = score(doc=1411,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.3 = coord(9/30)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
    Date
    20. 4.1997 11:57:32
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.05
    0.050790872 = product of:
      0.1693029 = sum of:
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.016523615 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.016523615 = score(doc=1755,freq=6.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021605767 = weight(_text_:im in 1755) [ClassicSimilarity], result of:
          0.021605767 = score(doc=1755,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.35334828 = fieldWeight in 1755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.014446467 = weight(_text_:20 in 1755) [ClassicSimilarity], result of:
          0.014446467 = score(doc=1755,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 1755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.0117227305 = product of:
          0.023445461 = sum of:
            0.023445461 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.023445461 = score(doc=1755,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.3 = coord(9/30)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    11.12.1998 20:07:30
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  4. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.05
    0.049249943 = product of:
      0.16416647 = sum of:
        0.026328495 = weight(_text_:allgemeine in 1767) [ClassicSimilarity], result of:
          0.026328495 = score(doc=1767,freq=2.0), product of:
            0.11351869 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.021630857 = queryNorm
            0.23193093 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018783743 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.018783743 = score(doc=1767,freq=32.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018783743 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.018783743 = score(doc=1767,freq=32.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.017847542 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.017847542 = score(doc=1767,freq=28.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018783743 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.018783743 = score(doc=1767,freq=32.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018783743 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.018783743 = score(doc=1767,freq=32.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.020210344 = weight(_text_:im in 1767) [ClassicSimilarity], result of:
          0.020210344 = score(doc=1767,freq=14.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.33052707 = fieldWeight in 1767, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.018783743 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.018783743 = score(doc=1767,freq=32.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0058613652 = product of:
          0.0117227305 = sum of:
            0.0117227305 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.0117227305 = score(doc=1767,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.3 = coord(9/30)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  5. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.04
    0.044598464 = product of:
      0.16724423 = sum of:
        0.021000862 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1407,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.021000862 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1407,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.021331893 = weight(_text_:der in 1407) [ClassicSimilarity], result of:
          0.021331893 = score(doc=1407,freq=10.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.44148692 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.021000862 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1407,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.021000862 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1407,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.026461553 = weight(_text_:im in 1407) [ClassicSimilarity], result of:
          0.026461553 = score(doc=1407,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.43276152 = fieldWeight in 1407, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.014446467 = weight(_text_:20 in 1407) [ClassicSimilarity], result of:
          0.014446467 = score(doc=1407,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.021000862 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1407,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.26666668 = coord(8/30)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
    Date
    20. 4.1997 11:57:32
  6. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.04
    0.043269202 = product of:
      0.1622595 = sum of:
        0.069475934 = weight(_text_:rechtswissenschaft in 2145) [ClassicSimilarity], result of:
          0.069475934 = score(doc=2145,freq=2.0), product of:
            0.15056565 = queryWeight, product of:
              6.9606886 = idf(docFreq=113, maxDocs=44218)
              0.021630857 = queryNorm
            0.4614328 = fieldWeight in 2145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9606886 = idf(docFreq=113, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.02677131 = weight(_text_:der in 2145) [ClassicSimilarity], result of:
          0.02677131 = score(doc=2145,freq=28.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.55406165 = fieldWeight in 2145, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.016204325 = weight(_text_:im in 2145) [ClassicSimilarity], result of:
          0.016204325 = score(doc=2145,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
      0.26666668 = coord(8/30)
    
    Abstract
    Ausgehend von einer Betrachtung in der Rechtsinformatik geläufiger Annahmen zur juristischen Informationserschließung beschreibt der Beitrag wesentliche Ergebnisse einer empirischen Studie der Retrievaleffektivität von Re-cherchen in juristischen Datenbanken. Dabei steht die Frage nach der Notwendigkeit einer intellektuellen Erschließung einerseits, der Effektivität der sogenannten Stichwortsuche andererseits im Mittelpunkt. Die Ergebnisse der Studie, bei der auch ein Vergleich zwischen einem Informationssystem auf der Basis eines Booleschen Retrievalmodells mit einem System auf der Basis statistischer Verfahren vorgenommen wurde, legen den Schluss nahe, dass in der rechtsinformatischen Fachliteratur analytisch begründete Annahmen wie die Gefahr zu großer Antwortmengen bei der Stichwortsuche empirisch nicht zu belegen sind. Auch zeigt sich keine Überlegenheit intellektueller Erschließungsverfahren (Beschlagwortung) gegenüber der automatischen Indexierung, im Gegenteil führt der Einsatz eines statistischen Verfahrens bei identischer Dokumentkollektion zu einer höheren Wiedergewinnungsrate (recall).
    Field
    Rechtswissenschaft
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  7. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.04
    0.04098575 = product of:
      0.15369655 = sum of:
        0.01946832 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.01946832 = score(doc=4283,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.01946832 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.01946832 = score(doc=4283,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.021497903 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.021497903 = score(doc=4283,freq=26.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.01946832 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.01946832 = score(doc=4283,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.01946832 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.01946832 = score(doc=4283,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.023388928 = weight(_text_:im in 4283) [ClassicSimilarity], result of:
          0.023388928 = score(doc=4283,freq=12.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.38251072 = fieldWeight in 4283, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.01946832 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.01946832 = score(doc=4283,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.01146811 = weight(_text_:21 in 4283) [ClassicSimilarity], result of:
          0.01146811 = score(doc=4283,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.17113805 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.26666668 = coord(8/30)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Date
    14. 3.2003 21:11:31
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  8. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.04
    0.039084204 = product of:
      0.14656575 = sum of:
        0.019361837 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.019361837 = score(doc=4031,freq=34.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.019361837 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.019361837 = score(doc=4031,freq=34.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.017198322 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.017198322 = score(doc=4031,freq=26.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.019361837 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.019361837 = score(doc=4031,freq=34.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.019361837 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.019361837 = score(doc=4031,freq=34.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.025335008 = weight(_text_:im in 4031) [ClassicSimilarity], result of:
          0.025335008 = score(doc=4031,freq=22.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.4143376 = fieldWeight in 4031, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.0072232336 = weight(_text_:20 in 4031) [ClassicSimilarity], result of:
          0.0072232336 = score(doc=4031,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.12148187 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.019361837 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.019361837 = score(doc=4031,freq=34.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.26666668 = coord(8/30)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Date
    20. 4.1997 11:57:32
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  9. Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008) 0.04
    0.03756583 = product of:
      0.14087185 = sum of:
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.016864343 = weight(_text_:der in 2471) [ClassicSimilarity], result of:
          0.016864343 = score(doc=2471,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34902605 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.018058084 = weight(_text_:20 in 2471) [ClassicSimilarity], result of:
          0.018058084 = score(doc=2471,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.30370468 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.02293622 = weight(_text_:21 in 2471) [ClassicSimilarity], result of:
          0.02293622 = score(doc=2471,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.3422761 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
      0.26666668 = coord(8/30)
    
    Abstract
    Die Automatische Indexierung stellt eine Möglichkeit dar, große Dokumentenkollektionen nachträglich zu indexieren. Der hier vorliegende Artikel versucht aufzuzeigen, welcher intellektueller Aufwand dennoch notwendig ist, um aussagekräftige Deskriptoren mit Hilfe der Automatischen Indexierung zu erzeugen.
    Date
    21. 2.1997 19:37:24
    9.12.2008 20:04:17
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.5, S.285-292
  10. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.04
    0.037333086 = product of:
      0.15999894 = sum of:
        0.025987241 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.025987241 = score(doc=782,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.025987241 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.025987241 = score(doc=782,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.016694847 = weight(_text_:der in 782) [ClassicSimilarity], result of:
          0.016694847 = score(doc=782,freq=8.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34551817 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.025987241 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.025987241 = score(doc=782,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.025987241 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.025987241 = score(doc=782,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.013367887 = weight(_text_:im in 782) [ClassicSimilarity], result of:
          0.013367887 = score(doc=782,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.2186231 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.025987241 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.025987241 = score(doc=782,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.23333333 = coord(7/30)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  11. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.04
    0.03733303 = product of:
      0.13999885 = sum of:
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.019079825 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.019079825 = score(doc=3581,freq=8.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.015277584 = weight(_text_:im in 3581) [ClassicSimilarity], result of:
          0.015277584 = score(doc=3581,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24985497 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.0117227305 = product of:
          0.023445461 = sum of:
            0.023445461 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.023445461 = score(doc=3581,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.26666668 = coord(8/30)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  12. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.04
    0.037238207 = product of:
      0.13964327 = sum of:
        0.018636417 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.018636417 = score(doc=1746,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.018636417 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.018636417 = score(doc=1746,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.021464802 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.021464802 = score(doc=1746,freq=18.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.018636417 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.018636417 = score(doc=1746,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.018636417 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.018636417 = score(doc=1746,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.016204325 = weight(_text_:im in 1746) [ClassicSimilarity], result of:
          0.016204325 = score(doc=1746,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 1746, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.018636417 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.018636417 = score(doc=1746,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.008792047 = product of:
          0.017584095 = sum of:
            0.017584095 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.017584095 = score(doc=1746,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.26666668 = coord(8/30)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  13. Ladewig, C.; Henkes, M.: Verfahren zur automatischen inhaltlichen Erschließung von elektronischen Texten : ASPECTIX (2001) 0.04
    0.0355378 = product of:
      0.13326675 = sum of:
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.010118606 = weight(_text_:der in 5794) [ClassicSimilarity], result of:
          0.010118606 = score(doc=5794,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.20941564 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.016204325 = weight(_text_:im in 5794) [ClassicSimilarity], result of:
          0.016204325 = score(doc=5794,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.013761732 = weight(_text_:21 in 5794) [ClassicSimilarity], result of:
          0.013761732 = score(doc=5794,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.20536566 = fieldWeight in 5794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
      0.26666668 = coord(8/30)
    
    Abstract
    Das Verfahren zur automatischen syntaktischen inhaltlichen Erschließung von elektronischen Texten, AspectiX, basiert auf einem Index, dessen Elemente mit einer universellen Aspekt-Klassifikation verknüpft sind, die es erlauben, ein syntaktisches Retrieval durchzuführen. Mit diesen, auf den jeweiligen Suchgegenstand inhaltlich bezogenen Klassifikationselementen, werden die Informationen in elektronischen Texten mit bekannten Suchalgorithmen abgefragt und die Ergebnisse entsprechend der Aspektverknüpfung ausgewertet. Mit diesen Aspekten ist es möglich, unbekannte Textdokumente automatisch fachgebiets- und sprachunabhängig nach Inhalten zu klassifizieren und beim Suchen in einem Textcorpus nicht nur auf die Verwendung von Zeichenfolgen angewiesen zu sein wie bei Suchmaschinen im WWW. Der Index kann bei diesen Vorgängen intellektuell und automatisch weiter ausgebaut werden und liefert Ergebnisse im Retrieval von nahezu 100 Prozent Precision, bei gleichzeitig nahezu 100 Prozent Recall. Damit ist das Verfahren AspectiX allen anderen Recherchetools um bis zu 40 Prozent an Precision bzw. Recall überlegen, wie an zahlreichen Recherchen in drei Datenbanken, die unterschiedlich groß und thematisch unähnlich sind, nachgewiesen wird
    Date
    21. 2.1997 19:37:24
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.3, S.159-164
  14. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.04
    0.035310052 = product of:
      0.13241269 = sum of:
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.026721502 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.026721502 = score(doc=6080,freq=4.0), product of:
            0.102807134 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.021630857 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.019576443 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.019576443 = score(doc=6080,freq=44.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014945751 = weight(_text_:im in 6080) [ClassicSimilarity], result of:
          0.014945751 = score(doc=6080,freq=10.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24442805 = fieldWeight in 6080, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.26666668 = coord(8/30)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  15. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und automatische Dokumenterschließung : Ergebnisse des DFG-Projekts KASCADE (2000) 0.03
    0.034976445 = product of:
      0.14989905 = sum of:
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.016523615 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.016523615 = score(doc=4966,freq=6.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.018348975 = weight(_text_:21 in 4966) [ClassicSimilarity], result of:
          0.018348975 = score(doc=4966,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.27382088 = fieldWeight in 4966, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
      0.23333333 = coord(7/30)
    
    Abstract
    Der Beitrag befasst sich mit den Zielen, Inhalten und Ergebnissen des von der DFG geförderten Projekts KASCADE. Für KASCADE wurden Katalogdaten aus dem Fachbereich Rechtswissenschafft um Inhaltsverzeichnisse angereichert. Die angereicherten Titeldaten wurden mit einem erweiterten MILOS-Verfahren automatisch indexiert sowie mit den beiden linguistisch und statistisch basierten Verfahren SELIX und THEAS zusätzlich erschlossen. In einem umfangreichen Retrievaltest wurden die Ergebnisse der automatischen Indexierung und Gewichtung untersucht
    Date
    17.12.1996 21:11:09
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.4, S.305-316
  16. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.0343884 = product of:
      0.1289565 = sum of:
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020237211 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020237211 = score(doc=6386,freq=16.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.016204325 = weight(_text_:im in 6386) [ClassicSimilarity], result of:
          0.016204325 = score(doc=6386,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 6386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.013761732 = weight(_text_:21 in 6386) [ClassicSimilarity], result of:
          0.013761732 = score(doc=6386,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.20536566 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.26666668 = coord(8/30)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Date
    21. 2.1997 19:37:24
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  17. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.03
    0.033448845 = product of:
      0.12543316 = sum of:
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015998919 = weight(_text_:der in 1915) [ClassicSimilarity], result of:
          0.015998919 = score(doc=1915,freq=10.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.3311152 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.019846164 = weight(_text_:im in 1915) [ClassicSimilarity], result of:
          0.019846164 = score(doc=1915,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.32457113 = fieldWeight in 1915, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.010834851 = weight(_text_:20 in 1915) [ClassicSimilarity], result of:
          0.010834851 = score(doc=1915,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.18222281 = fieldWeight in 1915, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
      0.26666668 = coord(8/30)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Imprint
    Jülich : ASpB / Sektion 5 im DBV
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  18. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.03
    0.03321374 = product of:
      0.12455151 = sum of:
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.013491474 = weight(_text_:der in 1879) [ClassicSimilarity], result of:
          0.013491474 = score(doc=1879,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.27922085 = fieldWeight in 1879, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.015277584 = weight(_text_:im in 1879) [ClassicSimilarity], result of:
          0.015277584 = score(doc=1879,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24985497 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.014446467 = weight(_text_:20 in 1879) [ClassicSimilarity], result of:
          0.014446467 = score(doc=1879,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.26666668 = coord(8/30)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Date
    11.12.1998 20:07:30
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  19. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.03
    0.03297736 = product of:
      0.123665094 = sum of:
        0.015530346 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015530346 = score(doc=318,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.015530346 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015530346 = score(doc=318,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.017887335 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.017887335 = score(doc=318,freq=18.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.37019804 = fieldWeight in 318, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.015530346 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015530346 = score(doc=318,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.015530346 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015530346 = score(doc=318,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.01909698 = weight(_text_:im in 318) [ClassicSimilarity], result of:
          0.01909698 = score(doc=318,freq=8.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.3123187 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.009029042 = weight(_text_:20 in 318) [ClassicSimilarity], result of:
          0.009029042 = score(doc=318,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.15185234 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.015530346 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015530346 = score(doc=318,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
      0.26666668 = coord(8/30)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
    Content
    Lizentiatsarbeit der Philosphischen Fakultät der Universität Zürich, - Vgl. auch: http://www.ifi.unizh.ch/cl/study/lizarbeiten/lizkaufmann.pdf.
    Date
    20. 5.2007 18:44:47
  20. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.03
    0.032349966 = product of:
      0.13864271 = sum of:
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.02361008 = weight(_text_:der in 5812) [ClassicSimilarity], result of:
          0.02361008 = score(doc=5812,freq=16.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4886365 = fieldWeight in 5812, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.02315386 = weight(_text_:im in 5812) [ClassicSimilarity], result of:
          0.02315386 = score(doc=5812,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.37866634 = fieldWeight in 5812, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.23333333 = coord(7/30)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen

Languages

  • d 46
  • e 10

Types

  • a 36
  • x 14
  • el 4
  • m 3
  • p 1
  • More… Less…