Search (36 results, page 1 of 2)

  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.05
    0.054087337 = product of:
      0.18029112 = sum of:
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.01180504 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.01180504 = score(doc=5671,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.018905045 = weight(_text_:im in 5671) [ClassicSimilarity], result of:
          0.018905045 = score(doc=5671,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.30917975 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.02465366 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.02465366 = score(doc=5671,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.016055353 = weight(_text_:21 in 5671) [ClassicSimilarity], result of:
          0.016055353 = score(doc=5671,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.23959327 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.010257389 = product of:
          0.020514779 = sum of:
            0.020514779 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.020514779 = score(doc=5671,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.3 = coord(9/30)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    21. 2.1997 19:37:24
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  2. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.05
    0.050790872 = product of:
      0.1693029 = sum of:
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.016523615 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.016523615 = score(doc=1755,freq=6.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021605767 = weight(_text_:im in 1755) [ClassicSimilarity], result of:
          0.021605767 = score(doc=1755,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.35334828 = fieldWeight in 1755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.014446467 = weight(_text_:20 in 1755) [ClassicSimilarity], result of:
          0.014446467 = score(doc=1755,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 1755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.021000862 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.021000862 = score(doc=1755,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.0117227305 = product of:
          0.023445461 = sum of:
            0.023445461 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.023445461 = score(doc=1755,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.3 = coord(9/30)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    11.12.1998 20:07:30
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  3. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.04
    0.043269202 = product of:
      0.1622595 = sum of:
        0.069475934 = weight(_text_:rechtswissenschaft in 2145) [ClassicSimilarity], result of:
          0.069475934 = score(doc=2145,freq=2.0), product of:
            0.15056565 = queryWeight, product of:
              6.9606886 = idf(docFreq=113, maxDocs=44218)
              0.021630857 = queryNorm
            0.4614328 = fieldWeight in 2145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9606886 = idf(docFreq=113, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.02677131 = weight(_text_:der in 2145) [ClassicSimilarity], result of:
          0.02677131 = score(doc=2145,freq=28.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.55406165 = fieldWeight in 2145, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.016204325 = weight(_text_:im in 2145) [ClassicSimilarity], result of:
          0.016204325 = score(doc=2145,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.009961584 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.009961584 = score(doc=2145,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.20778441 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
      0.26666668 = coord(8/30)
    
    Abstract
    Ausgehend von einer Betrachtung in der Rechtsinformatik geläufiger Annahmen zur juristischen Informationserschließung beschreibt der Beitrag wesentliche Ergebnisse einer empirischen Studie der Retrievaleffektivität von Re-cherchen in juristischen Datenbanken. Dabei steht die Frage nach der Notwendigkeit einer intellektuellen Erschließung einerseits, der Effektivität der sogenannten Stichwortsuche andererseits im Mittelpunkt. Die Ergebnisse der Studie, bei der auch ein Vergleich zwischen einem Informationssystem auf der Basis eines Booleschen Retrievalmodells mit einem System auf der Basis statistischer Verfahren vorgenommen wurde, legen den Schluss nahe, dass in der rechtsinformatischen Fachliteratur analytisch begründete Annahmen wie die Gefahr zu großer Antwortmengen bei der Stichwortsuche empirisch nicht zu belegen sind. Auch zeigt sich keine Überlegenheit intellektueller Erschließungsverfahren (Beschlagwortung) gegenüber der automatischen Indexierung, im Gegenteil führt der Einsatz eines statistischen Verfahrens bei identischer Dokumentkollektion zu einer höheren Wiedergewinnungsrate (recall).
    Field
    Rechtswissenschaft
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  4. Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008) 0.04
    0.03756583 = product of:
      0.14087185 = sum of:
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.016864343 = weight(_text_:der in 2471) [ClassicSimilarity], result of:
          0.016864343 = score(doc=2471,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34902605 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.018058084 = weight(_text_:20 in 2471) [ClassicSimilarity], result of:
          0.018058084 = score(doc=2471,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.30370468 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.01660264 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.01660264 = score(doc=2471,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.02293622 = weight(_text_:21 in 2471) [ClassicSimilarity], result of:
          0.02293622 = score(doc=2471,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.3422761 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
      0.26666668 = coord(8/30)
    
    Abstract
    Die Automatische Indexierung stellt eine Möglichkeit dar, große Dokumentenkollektionen nachträglich zu indexieren. Der hier vorliegende Artikel versucht aufzuzeigen, welcher intellektueller Aufwand dennoch notwendig ist, um aussagekräftige Deskriptoren mit Hilfe der Automatischen Indexierung zu erzeugen.
    Date
    21. 2.1997 19:37:24
    9.12.2008 20:04:17
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.5, S.285-292
  5. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.04
    0.03733303 = product of:
      0.13999885 = sum of:
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.019079825 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.019079825 = score(doc=3581,freq=8.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.015277584 = weight(_text_:im in 3581) [ClassicSimilarity], result of:
          0.015277584 = score(doc=3581,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24985497 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.018783743 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.018783743 = score(doc=3581,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.0117227305 = product of:
          0.023445461 = sum of:
            0.023445461 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.023445461 = score(doc=3581,freq=2.0), product of:
                0.07574758 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021630857 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.26666668 = coord(8/30)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  6. Ladewig, C.; Henkes, M.: Verfahren zur automatischen inhaltlichen Erschließung von elektronischen Texten : ASPECTIX (2001) 0.04
    0.0355378 = product of:
      0.13326675 = sum of:
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.010118606 = weight(_text_:der in 5794) [ClassicSimilarity], result of:
          0.010118606 = score(doc=5794,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.20941564 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.016204325 = weight(_text_:im in 5794) [ClassicSimilarity], result of:
          0.016204325 = score(doc=5794,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.018636417 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.018636417 = score(doc=5794,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.013761732 = weight(_text_:21 in 5794) [ClassicSimilarity], result of:
          0.013761732 = score(doc=5794,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.20536566 = fieldWeight in 5794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
      0.26666668 = coord(8/30)
    
    Abstract
    Das Verfahren zur automatischen syntaktischen inhaltlichen Erschließung von elektronischen Texten, AspectiX, basiert auf einem Index, dessen Elemente mit einer universellen Aspekt-Klassifikation verknüpft sind, die es erlauben, ein syntaktisches Retrieval durchzuführen. Mit diesen, auf den jeweiligen Suchgegenstand inhaltlich bezogenen Klassifikationselementen, werden die Informationen in elektronischen Texten mit bekannten Suchalgorithmen abgefragt und die Ergebnisse entsprechend der Aspektverknüpfung ausgewertet. Mit diesen Aspekten ist es möglich, unbekannte Textdokumente automatisch fachgebiets- und sprachunabhängig nach Inhalten zu klassifizieren und beim Suchen in einem Textcorpus nicht nur auf die Verwendung von Zeichenfolgen angewiesen zu sein wie bei Suchmaschinen im WWW. Der Index kann bei diesen Vorgängen intellektuell und automatisch weiter ausgebaut werden und liefert Ergebnisse im Retrieval von nahezu 100 Prozent Precision, bei gleichzeitig nahezu 100 Prozent Recall. Damit ist das Verfahren AspectiX allen anderen Recherchetools um bis zu 40 Prozent an Precision bzw. Recall überlegen, wie an zahlreichen Recherchen in drei Datenbanken, die unterschiedlich groß und thematisch unähnlich sind, nachgewiesen wird
    Date
    21. 2.1997 19:37:24
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.3, S.159-164
  7. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.04
    0.035310052 = product of:
      0.13241269 = sum of:
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.026721502 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.026721502 = score(doc=6080,freq=4.0), product of:
            0.102807134 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.021630857 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.019576443 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.019576443 = score(doc=6080,freq=44.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014945751 = weight(_text_:im in 6080) [ClassicSimilarity], result of:
          0.014945751 = score(doc=6080,freq=10.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24442805 = fieldWeight in 6080, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.014233798 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.014233798 = score(doc=6080,freq=24.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.26666668 = coord(8/30)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  8. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und automatische Dokumenterschließung : Ergebnisse des DFG-Projekts KASCADE (2000) 0.03
    0.034976445 = product of:
      0.14989905 = sum of:
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.016523615 = weight(_text_:der in 4966) [ClassicSimilarity], result of:
          0.016523615 = score(doc=4966,freq=6.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34197432 = fieldWeight in 4966, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.023005292 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
          0.023005292 = score(doc=4966,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.47985753 = fieldWeight in 4966, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
        0.018348975 = weight(_text_:21 in 4966) [ClassicSimilarity], result of:
          0.018348975 = score(doc=4966,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.27382088 = fieldWeight in 4966, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
      0.23333333 = coord(7/30)
    
    Abstract
    Der Beitrag befasst sich mit den Zielen, Inhalten und Ergebnissen des von der DFG geförderten Projekts KASCADE. Für KASCADE wurden Katalogdaten aus dem Fachbereich Rechtswissenschafft um Inhaltsverzeichnisse angereichert. Die angereicherten Titeldaten wurden mit einem erweiterten MILOS-Verfahren automatisch indexiert sowie mit den beiden linguistisch und statistisch basierten Verfahren SELIX und THEAS zusätzlich erschlossen. In einem umfangreichen Retrievaltest wurden die Ergebnisse der automatischen Indexierung und Gewichtung untersucht
    Date
    17.12.1996 21:11:09
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.4, S.305-316
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.0343884 = product of:
      0.1289565 = sum of:
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020237211 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020237211 = score(doc=6386,freq=16.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.016204325 = weight(_text_:im in 6386) [ClassicSimilarity], result of:
          0.016204325 = score(doc=6386,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 6386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015750647 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015750647 = score(doc=6386,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.013761732 = weight(_text_:21 in 6386) [ClassicSimilarity], result of:
          0.013761732 = score(doc=6386,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.20536566 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.26666668 = coord(8/30)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Date
    21. 2.1997 19:37:24
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  10. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.03
    0.033448845 = product of:
      0.12543316 = sum of:
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015998919 = weight(_text_:der in 1915) [ClassicSimilarity], result of:
          0.015998919 = score(doc=1915,freq=10.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.3311152 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.019846164 = weight(_text_:im in 1915) [ClassicSimilarity], result of:
          0.019846164 = score(doc=1915,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.32457113 = fieldWeight in 1915, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.010834851 = weight(_text_:20 in 1915) [ClassicSimilarity], result of:
          0.010834851 = score(doc=1915,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.18222281 = fieldWeight in 1915, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.015750647 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.015750647 = score(doc=1915,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
      0.26666668 = coord(8/30)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Imprint
    Jülich : ASpB / Sektion 5 im DBV
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  11. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.03
    0.03321374 = product of:
      0.12455151 = sum of:
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.013491474 = weight(_text_:der in 1879) [ClassicSimilarity], result of:
          0.013491474 = score(doc=1879,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.27922085 = fieldWeight in 1879, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.015277584 = weight(_text_:im in 1879) [ClassicSimilarity], result of:
          0.015277584 = score(doc=1879,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.24985497 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.014446467 = weight(_text_:20 in 1879) [ClassicSimilarity], result of:
          0.014446467 = score(doc=1879,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
        0.016267197 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1879,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.26666668 = coord(8/30)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Date
    11.12.1998 20:07:30
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  12. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.03
    0.032349966 = product of:
      0.13864271 = sum of:
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.02361008 = weight(_text_:der in 5812) [ClassicSimilarity], result of:
          0.02361008 = score(doc=5812,freq=16.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4886365 = fieldWeight in 5812, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.02315386 = weight(_text_:im in 5812) [ClassicSimilarity], result of:
          0.02315386 = score(doc=5812,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.37866634 = fieldWeight in 5812, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018375754 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018375754 = score(doc=5812,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.23333333 = coord(7/30)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.03
    0.031556785 = product of:
      0.13524336 = sum of:
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.019667033 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.019667033 = score(doc=6078,freq=34.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.013230776 = weight(_text_:im in 6078) [ClassicSimilarity], result of:
          0.013230776 = score(doc=6078,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.21638076 = fieldWeight in 6078, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.23333333 = coord(7/30)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  14. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.027842933 = product of:
      0.11932686 = sum of:
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.019775193 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.019775193 = score(doc=5863,freq=22.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.016538471 = weight(_text_:im in 5863) [ClassicSimilarity], result of:
          0.016538471 = score(doc=5863,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.27047595 = fieldWeight in 5863, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.23333333 = coord(7/30)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Hauer, M.: Digitalisierung von Aufsätzen und anderen Texten mit maschineller Inhaltserschließung am Beispiel der Vorarlberger Landesbibliothek Bregenz : Wissensressourcen zutage fördern (2003) 0.03
    0.026893497 = product of:
      0.115257844 = sum of:
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.013491474 = weight(_text_:der in 1498) [ClassicSimilarity], result of:
          0.013491474 = score(doc=1498,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.27922085 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.02043039 = weight(_text_:20 in 1498) [ClassicSimilarity], result of:
          0.02043039 = score(doc=1498,freq=4.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.34360263 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
      0.23333333 = coord(7/30)
    
    Abstract
    Durch die Nutzung des Internet wird sich die Erwartungshaltung der Bibliothekskundschaft nachhaltig verändern. Es ist absehbar, dass von den Bibliotheken künftig mehr gefordert wird, als die formale und inhaltliche Erschließung mithilfe tradierter Verfahren und Regelwerke wie RAK, AACR, Klassifikationen, Schlagwortnormdatei oder Fachthesauri.
    Date
    20. 9.1996 20:25:49
  16. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.03
    0.025864655 = product of:
      0.12932327 = sum of:
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.011924891 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.011924891 = score(doc=3413,freq=2.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.2 = coord(6/30)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  17. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.02
    0.024145342 = product of:
      0.10348004 = sum of:
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.014458163 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.014458163 = score(doc=6077,freq=24.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.009452523 = weight(_text_:im in 6077) [ClassicSimilarity], result of:
          0.009452523 = score(doc=6077,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.15458988 = fieldWeight in 6077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.23333333 = coord(7/30)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  18. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.02
    0.024027588 = product of:
      0.102975376 = sum of:
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015775148 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.015775148 = score(doc=2489,freq=14.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.00954849 = weight(_text_:im in 2489) [ClassicSimilarity], result of:
          0.00954849 = score(doc=2489,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.15615936 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.23333333 = coord(7/30)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.33-38
  19. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.023479678 = product of:
      0.14087807 = sum of:
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.16666667 = coord(5/30)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  20. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.02
    0.022852972 = product of:
      0.09794131 = sum of:
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.015775148 = weight(_text_:der in 8) [ClassicSimilarity], result of:
          0.015775148 = score(doc=8,freq=14.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.326484 = fieldWeight in 8, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.016538471 = weight(_text_:im in 8) [ClassicSimilarity], result of:
          0.016538471 = score(doc=8,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.27047595 = fieldWeight in 8, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
      0.23333333 = coord(7/30)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis