Search (12 results, page 1 of 1)

  • × theme_ss:"Automatisches Indexieren"
  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  1. Goller, C.; Löning, J.; Will, T.; Wolff, W.: Automatic document classification : a thourough evaluation of various methods (2000) 0.03
    0.028217107 = product of:
      0.06583992 = sum of:
        0.01702559 = product of:
          0.03405118 = sum of:
            0.03405118 = weight(_text_:w in 5480) [ClassicSimilarity], result of:
              0.03405118 = score(doc=5480,freq=2.0), product of:
                0.13479044 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.035370585 = queryNorm
                0.2526231 = fieldWeight in 5480, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5480)
          0.5 = coord(1/2)
        0.025140489 = weight(_text_:u in 5480) [ClassicSimilarity], result of:
          0.025140489 = score(doc=5480,freq=2.0), product of:
            0.11581901 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.035370585 = queryNorm
            0.21706703 = fieldWeight in 5480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=5480)
        0.023673838 = weight(_text_:j in 5480) [ClassicSimilarity], result of:
          0.023673838 = score(doc=5480,freq=2.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.21064025 = fieldWeight in 5480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=5480)
      0.42857143 = coord(3/7)
    
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  2. Porter, M.F.: ¬An algorithm for suffix stripping (1980) 0.01
    0.007182997 = product of:
      0.050280977 = sum of:
        0.050280977 = weight(_text_:u in 3122) [ClassicSimilarity], result of:
          0.050280977 = score(doc=3122,freq=2.0), product of:
            0.11581901 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.035370585 = queryNorm
            0.43413407 = fieldWeight in 3122, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.09375 = fieldNorm(doc=3122)
      0.14285715 = coord(1/7)
    
    Footnote
    Wiederabgedruckt in: Readings in information retrieval. Ed.: K. Sparck Jones u. P. Willett. San Francisco: Morgan Kaufmann 1997. S.313-316.
  3. Gräbnitz, V.: PASSAT: Programm zur automatischen Selektion von Stichwörtern aus Texten (1987) 0.01
    0.006763954 = product of:
      0.047347676 = sum of:
        0.047347676 = weight(_text_:j in 932) [ClassicSimilarity], result of:
          0.047347676 = score(doc=932,freq=2.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.4212805 = fieldWeight in 932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.09375 = fieldNorm(doc=932)
      0.14285715 = coord(1/7)
    
    Source
    Inhaltserschließung von Massendaten zur Wirksamkeit informationslinguistischer Verfahren am Beispiel des Deutschen Patentinformationssystems. Hrsg. J. Krause
  4. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.006763954 = product of:
      0.047347676 = sum of:
        0.047347676 = weight(_text_:j in 6386) [ClassicSimilarity], result of:
          0.047347676 = score(doc=6386,freq=8.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.4212805 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  5. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.005636628 = product of:
      0.039456394 = sum of:
        0.039456394 = weight(_text_:j in 5863) [ClassicSimilarity], result of:
          0.039456394 = score(doc=5863,freq=8.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.35106707 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  6. Fox, C.: Lexical analysis and stoplists (1992) 0.00
    0.004788665 = product of:
      0.033520654 = sum of:
        0.033520654 = weight(_text_:u in 3502) [ClassicSimilarity], result of:
          0.033520654 = score(doc=3502,freq=2.0), product of:
            0.11581901 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.035370585 = queryNorm
            0.28942272 = fieldWeight in 3502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=3502)
      0.14285715 = coord(1/7)
    
    Source
    Information retrieval: data structures and algorithms. Ed.: W.B. Frakes u. R. Baeza-Yates
  7. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.00
    0.0041900817 = product of:
      0.02933057 = sum of:
        0.02933057 = weight(_text_:u in 2571) [ClassicSimilarity], result of:
          0.02933057 = score(doc=2571,freq=2.0), product of:
            0.11581901 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.035370585 = queryNorm
            0.25324488 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
      0.14285715 = coord(1/7)
    
    Source
    Datenanalyse, Klassifikation und Informationsverarbeitung: Methoden und Anwendungen in verschiedenen Fachgebieten. Hrsg.: H. Goebl u. M. Schader
  8. Snajder, J.; Dalbelo Basic, B.D.; Tadic, M.: Automatic acquisition of inflectional lexica for morphological normalisation (2008) 0.00
    0.003381977 = product of:
      0.023673838 = sum of:
        0.023673838 = weight(_text_:j in 2910) [ClassicSimilarity], result of:
          0.023673838 = score(doc=2910,freq=2.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.21064025 = fieldWeight in 2910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=2910)
      0.14285715 = coord(1/7)
    
  9. Ahlgren, P.; Kekäläinen, J.: Indexing strategies for Swedish full text retrieval under different user scenarios (2007) 0.00
    0.002818314 = product of:
      0.019728197 = sum of:
        0.019728197 = weight(_text_:j in 896) [ClassicSimilarity], result of:
          0.019728197 = score(doc=896,freq=2.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.17553353 = fieldWeight in 896, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=896)
      0.14285715 = coord(1/7)
    
  10. Zhang, Y.; Zhang, C.; Li, J.: Joint modeling of characters, words, and conversation contexts for microblog keyphrase extraction (2020) 0.00
    0.002818314 = product of:
      0.019728197 = sum of:
        0.019728197 = weight(_text_:j in 5816) [ClassicSimilarity], result of:
          0.019728197 = score(doc=5816,freq=2.0), product of:
            0.11238991 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.035370585 = queryNorm
            0.17553353 = fieldWeight in 5816, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5816)
      0.14285715 = coord(1/7)
    
  11. Riloff, E.: ¬An empirical study of automated dictionary construction for information extraction in three domains (1996) 0.00
    0.002738415 = product of:
      0.019168904 = sum of:
        0.019168904 = product of:
          0.038337808 = sum of:
            0.038337808 = weight(_text_:22 in 6752) [ClassicSimilarity], result of:
              0.038337808 = score(doc=6752,freq=2.0), product of:
                0.12386176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035370585 = queryNorm
                0.30952093 = fieldWeight in 6752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6752)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    6. 3.1997 16:22:15
  12. Li, W.; Wong, K.-F.; Yuan, C.: Toward automatic Chinese temporal information extraction (2001) 0.00
    0.002026856 = product of:
      0.014187992 = sum of:
        0.014187992 = product of:
          0.028375983 = sum of:
            0.028375983 = weight(_text_:w in 6029) [ClassicSimilarity], result of:
              0.028375983 = score(doc=6029,freq=2.0), product of:
                0.13479044 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.035370585 = queryNorm
                0.21051927 = fieldWeight in 6029, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6029)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)