Search (221 results, page 1 of 12)

  • × theme_ss:"Automatisches Indexieren"
  1. Lepsky, K.: Automatische Indexierung in der Inhaltserschließung (1998) 0.10
    0.09800863 = product of:
      0.19601727 = sum of:
        0.18145971 = weight(_text_:van in 1283) [ClassicSimilarity], result of:
          0.18145971 = score(doc=1283,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.7393583 = fieldWeight in 1283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.09375 = fieldNorm(doc=1283)
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 1283) [ClassicSimilarity], result of:
              0.029115114 = score(doc=1283,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 1283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1283)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    7e dag van het document, 19 & 20 mei 1998. Congrescentrum De Reehorst, Ede. Red.: J.R. Creutzberg
  2. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.07
    0.06649258 = product of:
      0.13298516 = sum of:
        0.049094375 = weight(_text_:j in 4157) [ClassicSimilarity], result of:
          0.049094375 = score(doc=4157,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.08389079 = sum of:
          0.024262596 = weight(_text_:der in 4157) [ClassicSimilarity], result of:
            0.024262596 = score(doc=4157,freq=2.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.2467987 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.059628192 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.059628192 = score(doc=4157,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.5 = coord(2/4)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  3. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.06
    0.062899105 = product of:
      0.12579821 = sum of:
        0.0392755 = weight(_text_:j in 3581) [ClassicSimilarity], result of:
          0.0392755 = score(doc=3581,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.08652271 = sum of:
          0.038820155 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
            0.038820155 = score(doc=3581,freq=8.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.3948779 = fieldWeight in 3581, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0625 = fieldNorm(doc=3581)
          0.047702555 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
            0.047702555 = score(doc=3581,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.30952093 = fieldWeight in 3581, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=3581)
      0.5 = coord(2/4)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  4. Rijsbergen, C.J. van: ¬A fast hierarchic clustering algorithm (1970) 0.06
    0.06048657 = product of:
      0.24194628 = sum of:
        0.24194628 = weight(_text_:van in 3300) [ClassicSimilarity], result of:
          0.24194628 = score(doc=3300,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.98581105 = fieldWeight in 3300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.125 = fieldNorm(doc=3300)
      0.25 = coord(1/4)
    
  5. Jardine, N.; Rijsbergen, C.J. van: ¬The use of hierarchic clustering in information retrieval (1971) 0.06
    0.06048657 = product of:
      0.24194628 = sum of:
        0.24194628 = weight(_text_:van in 5170) [ClassicSimilarity], result of:
          0.24194628 = score(doc=5170,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.98581105 = fieldWeight in 5170, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.125 = fieldNorm(doc=5170)
      0.25 = coord(1/4)
    
  6. Konings, E.; Gramsbergen, E.: Automatische onderwerpsondexering van een bibliotheekscatalogus : Ervaringen van de Bibliotheek TU Delft (1999) 0.06
    0.06048657 = product of:
      0.24194628 = sum of:
        0.24194628 = weight(_text_:van in 3263) [ClassicSimilarity], result of:
          0.24194628 = score(doc=3263,freq=8.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.98581105 = fieldWeight in 3263, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=3263)
      0.25 = coord(1/4)
    
    Abstract
    Geautomatiseerde indexeringsmethoden blijken veelal moeilijk toepasbaar op tekstarme systemen als bibliotheekcatalogi, zo werd de Bibliotheek van de Technische Universiteit Delft na inventarisatie en onderzoek duidelijk. Kees Konings en Egbert Gramsbergen doen verslag van hun bevindingen.
  7. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.06
    0.060298644 = product of:
      0.12059729 = sum of:
        0.0392755 = weight(_text_:j in 1755) [ClassicSimilarity], result of:
          0.0392755 = score(doc=1755,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 1755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.08132179 = sum of:
          0.03361924 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
            0.03361924 = score(doc=1755,freq=6.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.34197432 = fieldWeight in 1755, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
          0.047702555 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
            0.047702555 = score(doc=1755,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.30952093 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
      0.5 = coord(2/4)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
  8. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.05
    0.05426518 = product of:
      0.10853036 = sum of:
        0.083315924 = weight(_text_:j in 7726) [ClassicSimilarity], result of:
          0.083315924 = score(doc=7726,freq=4.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.5957806 = fieldWeight in 7726, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.025214432 = product of:
          0.050428864 = sum of:
            0.050428864 = weight(_text_:der in 7726) [ClassicSimilarity], result of:
              0.050428864 = score(doc=7726,freq=6.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.5129615 = fieldWeight in 7726, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  9. Fuhr, N.; Knorz, G.: Retrieval test evaluation of a rule based automatic indexing (AIR/PHYS) (1984) 0.05
    0.045364928 = product of:
      0.18145971 = sum of:
        0.18145971 = weight(_text_:van in 2321) [ClassicSimilarity], result of:
          0.18145971 = score(doc=2321,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.7393583 = fieldWeight in 2321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.09375 = fieldNorm(doc=2321)
      0.25 = coord(1/4)
    
    Source
    Research and development in information retrieval. Proc. of the 3rd joint BCS and ACM symp., Cambridge, 2.-6.7.1984. Ed.: C.J. van Rijsbergen
  10. Spitters, M.J.: Adjust : automatische thesauriele ontsluiting van grote hoeveelheden krantenartikelen (1999) 0.05
    0.045364928 = product of:
      0.18145971 = sum of:
        0.18145971 = weight(_text_:van in 3938) [ClassicSimilarity], result of:
          0.18145971 = score(doc=3938,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.7393583 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
      0.25 = coord(1/4)
    
  11. Oberhauser, O.; Labner, J.: Einführung der automatischen Indexierung im Österreichischen Verbundkatalog? : Bericht über eine empirische Studie (2003) 0.04
    0.04285797 = product of:
      0.08571594 = sum of:
        0.06873213 = weight(_text_:j in 1878) [ClassicSimilarity], result of:
          0.06873213 = score(doc=1878,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4914939 = fieldWeight in 1878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.109375 = fieldNorm(doc=1878)
        0.016983816 = product of:
          0.033967633 = sum of:
            0.033967633 = weight(_text_:der in 1878) [ClassicSimilarity], result of:
              0.033967633 = score(doc=1878,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34551817 = fieldWeight in 1878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1878)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
  12. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.04
    0.039750375 = product of:
      0.07950075 = sum of:
        0.058913257 = weight(_text_:j in 6386) [ClassicSimilarity], result of:
          0.058913257 = score(doc=6386,freq=8.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4212805 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020587496 = product of:
          0.041174993 = sum of:
            0.041174993 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
              0.041174993 = score(doc=6386,freq=16.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.4188313 = fieldWeight in 6386, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  13. Stankovic, R. et al.: Indexing of textual databases based on lexical resources : a case study for Serbian (2016) 0.04
    0.039454237 = product of:
      0.07890847 = sum of:
        0.049094375 = weight(_text_:j in 2759) [ClassicSimilarity], result of:
          0.049094375 = score(doc=2759,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 2759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.078125 = fieldNorm(doc=2759)
        0.029814096 = product of:
          0.059628192 = sum of:
            0.059628192 = weight(_text_:22 in 2759) [ClassicSimilarity], result of:
              0.059628192 = score(doc=2759,freq=2.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.38690117 = fieldWeight in 2759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2759)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    1. 2.2016 18:25:22
    Source
    Semantic keyword-based search on structured data sources: First COST Action IC1302 International KEYSTONE Conference, IKC 2015, Coimbra, Portugal, September 8-9, 2015. Revised Selected Papers. Eds.: J. Cardoso et al
  14. 7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998) 0.04
    0.037804104 = product of:
      0.15121642 = sum of:
        0.15121642 = weight(_text_:van in 2427) [ClassicSimilarity], result of:
          0.15121642 = score(doc=2427,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.6161319 = fieldWeight in 2427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
      0.25 = coord(1/4)
    
  15. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.04
    0.036735408 = product of:
      0.073470816 = sum of:
        0.058913257 = weight(_text_:j in 1785) [ClassicSimilarity], result of:
          0.058913257 = score(doc=1785,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4212805 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 1785) [ClassicSimilarity], result of:
              0.029115114 = score(doc=1785,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 1785, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1785)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
  16. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.04
    0.0350532 = product of:
      0.0701064 = sum of:
        0.049094375 = weight(_text_:j in 2377) [ClassicSimilarity], result of:
          0.049094375 = score(doc=2377,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.021012025 = product of:
          0.04202405 = sum of:
            0.04202405 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
              0.04202405 = score(doc=2377,freq=6.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.42746788 = fieldWeight in 2377, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2377)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand des Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg. Günter Peters berichtete unter anderem über das System DocCat, dem er eine erhebliche Kompetenz attestierte.
    Footnote
    Beitrag anläßlich der 27. Jahrestagung Gesellschaft für Klassifikation e.V.
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.034605928 = product of:
      0.069211856 = sum of:
        0.049094375 = weight(_text_:j in 5863) [ClassicSimilarity], result of:
          0.049094375 = score(doc=5863,freq=8.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020117482 = product of:
          0.040234964 = sum of:
            0.040234964 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
              0.040234964 = score(doc=5863,freq=22.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.40926933 = fieldWeight in 5863, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.03
    0.03364811 = product of:
      0.06729622 = sum of:
        0.051020376 = weight(_text_:j in 1915) [ClassicSimilarity], result of:
          0.051020376 = score(doc=1915,freq=6.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.3648396 = fieldWeight in 1915, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.016275844 = product of:
          0.032551687 = sum of:
            0.032551687 = weight(_text_:der in 1915) [ClassicSimilarity], result of:
              0.032551687 = score(doc=1915,freq=10.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.3311152 = fieldWeight in 1915, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  19. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.03
    0.03306994 = product of:
      0.06613988 = sum of:
        0.034366064 = weight(_text_:j in 3495) [ClassicSimilarity], result of:
          0.034366064 = score(doc=3495,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.24574696 = fieldWeight in 3495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.03177381 = product of:
          0.06354762 = sum of:
            0.06354762 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
              0.06354762 = score(doc=3495,freq=28.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.6464053 = fieldWeight in 3495, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3495)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  20. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.03
    0.03247631 = product of:
      0.06495262 = sum of:
        0.0392755 = weight(_text_:j in 2653) [ClassicSimilarity], result of:
          0.0392755 = score(doc=2653,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 2653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.025677118 = product of:
          0.051354237 = sum of:
            0.051354237 = weight(_text_:der in 2653) [ClassicSimilarity], result of:
              0.051354237 = score(doc=2653,freq=14.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.5223744 = fieldWeight in 2653, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.

Years

Languages

  • d 150
  • e 64
  • nl 3
  • f 2
  • a 1
  • m 1
  • ru 1
  • More… Less…

Types

  • a 166
  • x 28
  • el 24
  • m 11
  • s 9
  • d 2
  • p 2
  • r 1
  • More… Less…