Search (108 results, page 1 of 6)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.53
    0.5263539 = product of:
      1.2281591 = sum of:
        0.05848377 = product of:
          0.23393507 = sum of:
            0.23393507 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.23393507 = score(doc=973,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.25 = coord(1/4)
        0.23393507 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.23393507 = score(doc=973,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.23393507 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.23393507 = score(doc=973,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.23393507 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.23393507 = score(doc=973,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.23393507 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.23393507 = score(doc=973,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.23393507 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.23393507 = score(doc=973,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.26
    0.257578 = product of:
      0.515156 = sum of:
        0.024368238 = product of:
          0.09747295 = sum of:
            0.09747295 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.09747295 = score(doc=4388,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.25 = coord(1/4)
        0.09747295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4388,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.09747295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4388,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.09747295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4388,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.09747295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4388,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.09747295 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4388,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.003422995 = product of:
          0.01369198 = sum of:
            0.01369198 = weight(_text_:j in 4388) [ClassicSimilarity], result of:
              0.01369198 = score(doc=4388,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.25 = coord(1/4)
      0.5 = coord(7/14)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.26
    0.257578 = product of:
      0.515156 = sum of:
        0.024368238 = product of:
          0.09747295 = sum of:
            0.09747295 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.09747295 = score(doc=1000,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.25 = coord(1/4)
        0.09747295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09747295 = score(doc=1000,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09747295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09747295 = score(doc=1000,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09747295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09747295 = score(doc=1000,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09747295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09747295 = score(doc=1000,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09747295 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09747295 = score(doc=1000,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.003422995 = product of:
          0.01369198 = sum of:
            0.01369198 = weight(_text_:j in 1000) [ClassicSimilarity], result of:
              0.01369198 = score(doc=1000,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.25 = coord(1/4)
      0.5 = coord(7/14)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.25
    0.25278282 = product of:
      0.5898266 = sum of:
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.11696754 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.11696754 = score(doc=563,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.00498893 = product of:
          0.01995572 = sum of:
            0.01995572 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.01995572 = score(doc=563,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.25 = coord(1/4)
      0.42857143 = coord(6/14)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.24
    0.24466495 = product of:
      0.5708849 = sum of:
        0.019494591 = product of:
          0.077978365 = sum of:
            0.077978365 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.077978365 = score(doc=5820,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.25 = coord(1/4)
        0.110278055 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.110278055 = score(doc=5820,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.110278055 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.110278055 = score(doc=5820,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.110278055 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.110278055 = score(doc=5820,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.110278055 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.110278055 = score(doc=5820,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.110278055 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.110278055 = score(doc=5820,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.42857143 = coord(6/14)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  6. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.22
    0.21931414 = product of:
      0.511733 = sum of:
        0.024368238 = product of:
          0.09747295 = sum of:
            0.09747295 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.09747295 = score(doc=4997,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.25 = coord(1/4)
        0.09747295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4997,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.09747295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4997,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.09747295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4997,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.09747295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4997,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.09747295 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.09747295 = score(doc=4997,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.42857143 = coord(6/14)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.22
    0.21931414 = product of:
      0.511733 = sum of:
        0.024368238 = product of:
          0.09747295 = sum of:
            0.09747295 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.09747295 = score(doc=855,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.25 = coord(1/4)
        0.09747295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.09747295 = score(doc=855,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.09747295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.09747295 = score(doc=855,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.09747295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.09747295 = score(doc=855,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.09747295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.09747295 = score(doc=855,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.09747295 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.09747295 = score(doc=855,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.42857143 = coord(6/14)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.18
    0.17545132 = product of:
      0.40938643 = sum of:
        0.019494591 = product of:
          0.077978365 = sum of:
            0.077978365 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.077978365 = score(doc=701,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.25 = coord(1/4)
        0.077978365 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.077978365 = score(doc=701,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.077978365 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.077978365 = score(doc=701,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.077978365 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.077978365 = score(doc=701,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.077978365 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.077978365 = score(doc=701,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.077978365 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.077978365 = score(doc=701,freq=2.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Bickmann, H.-J.: Synonymie und Sprachverwendung : Verfahren zur Ermittlung von Synonymenklassen als kontextbeschränkten Äquivalenzklassen (1978) 0.02
    0.020619836 = product of:
      0.14433885 = sum of:
        0.13886206 = weight(_text_:semantik in 5890) [ClassicSimilarity], result of:
          0.13886206 = score(doc=5890,freq=4.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.84088427 = fieldWeight in 5890, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0625 = fieldNorm(doc=5890)
        0.0054767923 = product of:
          0.02190717 = sum of:
            0.02190717 = weight(_text_:j in 5890) [ClassicSimilarity], result of:
              0.02190717 = score(doc=5890,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.28085366 = fieldWeight in 5890, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5890)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    BK
    17.56 Semantik
    Classification
    17.56 Semantik
  10. Glockner, M.: Semantik Web : Die nächste Generation des World Wide Web (2004) 0.01
    0.0122737875 = product of:
      0.17183302 = sum of:
        0.17183302 = weight(_text_:semantik in 4532) [ClassicSimilarity], result of:
          0.17183302 = score(doc=4532,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            1.0405412 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=4532)
      0.071428575 = coord(1/14)
    
  11. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.01
    0.010524531 = product of:
      0.07367171 = sum of:
        0.07093332 = weight(_text_:donald in 865) [ClassicSimilarity], result of:
          0.07093332 = score(doc=865,freq=2.0), product of:
            0.19849665 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.024548283 = queryNorm
            0.3573527 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.0027383962 = product of:
          0.010953585 = sum of:
            0.010953585 = weight(_text_:j in 865) [ClassicSimilarity], result of:
              0.010953585 = score(doc=865,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.14042683 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
  12. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.01
    0.010309918 = product of:
      0.07216942 = sum of:
        0.06943103 = weight(_text_:semantik in 4426) [ClassicSimilarity], result of:
          0.06943103 = score(doc=4426,freq=4.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.42044213 = fieldWeight in 4426, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
        0.0027383962 = product of:
          0.010953585 = sum of:
            0.010953585 = weight(_text_:j in 4426) [ClassicSimilarity], result of:
              0.010953585 = score(doc=4426,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.14042683 = fieldWeight in 4426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4426)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    "Talks at Google" hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen. Die Rede ist natürlich von John Searle und dem Chinesischen Zimmer. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser damned things in 5 Minuten erfassen. Dagegen verblassten die scheuen Einwände des AI-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool. Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen. Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, u. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt. Es hat sich von einem speziellen Werkzeug zur Widerlegung der Starken AI These, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können. Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen. Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.
  13. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.0076051787 = product of:
      0.05323625 = sum of:
        0.027447965 = weight(_text_:bedeutung in 4089) [ClassicSimilarity], result of:
          0.027447965 = score(doc=4089,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 4089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.025788285 = product of:
          0.10315314 = sum of:
            0.10315314 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.10315314 = score(doc=4089,freq=2.0), product of:
                0.23936975 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    In der vorliegenden Arbeit wurde die Frage »Was ist digitale Mündigkeit?« untersucht. Dabei war das Ziel, die Merkmale und Dimensionen von digitaler Mündigkeit literaturbasiert aufzudecken und die Erkenntnisse in eine erste Definition zu überführen. Dies geschah wie folgt: In der Einleitung wurde zunächst umrissen, wie es zur Wahl des Forschungsthemas kam, inwiefern digitale Mündigkeit die Gesellschaft verändert und welche Bereiche der Lebenswelt mit diesem Begriff angesprochen sind. Daraus erfolgte die Herleitung der Forschungsfrage. Im zweiten Kapitel folgte sodann die Darlegung der theoretisch angelegten Forschungsmethode, die in diesem Fall auf einer zunächst breiten, dann enger gefassten Literaturrecherche basierte. Ergänzend wurde auf die Methode der philosophischen Begriffsanalyse hingewiesen, die für die spätere Definition zum Einsatz kommen sollte. Mit Kapitel 3 wurde sodann in Fachtermini und relevante Begriffe eingeführt, gefolgt von einer Darlegung der Bedeutung von Big Data, Codes und Algorithmen für Individuum und Gesellschaft. Dies geschah anhand exemplarisch aus redaktionellen Beiträgen herausgegriffener Themen. Anschließend wurde der aktuelle Forschungsstand zum Thema präsentiert. Dies erfolgte jedoch vornehmlich aus Gründen eines empirischen Überblicks, nicht, weil aus diesen Studien Daten gewonnen werden sollten (denn die Datengewinnung erfolgte aus der Literatur). Danach wurde digitale Mündigkeit als medienpädagogisches Feld erörtert. In Kapitel 4 wurden relevante Theorien zur Mündigkeit präsentiert. Die Extrakte aus den verschiedenen Ansätzen wurden in einem abschließenden Unterkapitel für die spätere Definition von digitaler Mündigkeit zusammengefasst. Inwiefern digitale Mündigkeit mit den Konzepten der Medienkompetenz und Medienbildung in Verbindung gebracht werden kann, wurde in Kapitel 5 untersucht. Zu diesem Zweck wurden zunächst Entwicklung und Ansätze des Medienkompetenzbegriffs erläutert, gleiches geschah anschließend mit dem Medienbildungsbegriff. Nach einer Darstellung des langjährigen bildungswissenschaftlichen Diskurses um Medienkompetenz und/oder Medienbildung, wurden schließlich die Verhältnisse zwischen digitaler Mündigkeit, Medienkompetenz und Medienbildung betrachtet. Alle Vorarbeiten mündeten hiernach im sechsten Kapitel, in welchem zunächst der Begriff der allgemeinen Mündigkeit analysiert und sodann die Begriffskomponente 'digital' betrachtet wurde. Die in den vorangegangenen Kapiteln geknüpften Fäden liefen schlussendlich in einer fundierten Definition von digitaler Mündigkeit zusammen. Der Hauptteil endete mit einem Blick auf verwandte Begriffe.
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
  14. Schwab, U.: ¬Der Information-Highway und seine Bedeutung für das elektronische Publizieren in Zeitungs- und Zeitschriftenverlagen (1995) 0.01
    0.0068619912 = product of:
      0.096067876 = sum of:
        0.096067876 = weight(_text_:bedeutung in 2772) [ClassicSimilarity], result of:
          0.096067876 = score(doc=2772,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.7780277 = fieldWeight in 2772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.109375 = fieldNorm(doc=2772)
      0.071428575 = coord(1/14)
    
  15. Diesing, K.: Register zu Büchern : Bedeutung, Beschaffenheit, Evaluation. Dargestellt an ausgewählten Beispielen aus dem Bereich der Wirtschaftswissenschaften (1997) 0.01
    0.0068619912 = product of:
      0.096067876 = sum of:
        0.096067876 = weight(_text_:bedeutung in 780) [ClassicSimilarity], result of:
          0.096067876 = score(doc=780,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.7780277 = fieldWeight in 780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.109375 = fieldNorm(doc=780)
      0.071428575 = coord(1/14)
    
  16. Glaser, W.R.: Soziales und instrumentales Handeln : Probleme der Technologie bei Arnold Gehlen und Jürgen Habermas (1972) 0.01
    0.0068606287 = product of:
      0.096048795 = sum of:
        0.096048795 = product of:
          0.19209759 = sum of:
            0.19209759 = weight(_text_:habermas in 1014) [ClassicSimilarity], result of:
              0.19209759 = score(doc=1014,freq=10.0), product of:
                0.19538513 = queryWeight, product of:
                  7.9592175 = idf(docFreq=41, maxDocs=44218)
                  0.024548283 = queryNorm
                0.9831741 = fieldWeight in 1014, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  7.9592175 = idf(docFreq=41, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1014)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    RSWK
    Habermas, Jürgen *1929-* / Sozialethik / Technikphilosophie
    Habermas, Jürgen *1929-* / Technik
    Subject
    Habermas, Jürgen *1929-* / Sozialethik / Technikphilosophie
    Habermas, Jürgen *1929-* / Technik
  17. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.01
    0.005495343 = product of:
      0.0384674 = sum of:
        0.034309957 = weight(_text_:bedeutung in 2460) [ClassicSimilarity], result of:
          0.034309957 = score(doc=2460,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27786705 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.004157442 = product of:
          0.016629769 = sum of:
            0.016629769 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.016629769 = score(doc=2460,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  18. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.01
    0.0052601947 = product of:
      0.07364272 = sum of:
        0.07364272 = weight(_text_:semantik in 2774) [ClassicSimilarity], result of:
          0.07364272 = score(doc=2774,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.44594622 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
      0.071428575 = coord(1/14)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
  19. Bredack, J.: Terminologieextraktion von Mehrwortgruppen in kunsthistorischen Fachtexten (2013) 0.01
    0.00519446 = product of:
      0.036361217 = sum of:
        0.033965122 = weight(_text_:bedeutung in 1054) [ClassicSimilarity], result of:
          0.033965122 = score(doc=1054,freq=4.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27507433 = fieldWeight in 1054, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1054)
        0.0023960967 = product of:
          0.009584387 = sum of:
            0.009584387 = weight(_text_:j in 1054) [ClassicSimilarity], result of:
              0.009584387 = score(doc=1054,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.12287348 = fieldWeight in 1054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1054)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Mehrwortgruppen sind als lexikalische Einheit zu betrachten und bestehen aus mindestens zwei miteinander in Verbindung stehenden Begriffen. Durch die Ver-bindung mehrerer Fachwörter transportieren sie in Fachtexten aussagekräftige Informationen. Sie vermitteln eindeutige Informationen, da aus den resultierenden Beziehungen zwischen den in Verbindung stehenden Fachbegriffen die inhaltliche Bedeutung eines Fachtextes ersichtlich wird. Demzufolge ist es sinnvoll, Mehrwort-gruppen aus Fachtexten zu extrahieren, da diese die Inhalte eindeutig repräsentieren. So können Mehrwortgruppen für eine inhaltliche Erschließung genutzt und beispiels-weise als Indexterme im Information Retrieval bereitgestellt werden. Mehrwortgruppen enthalten Informationen eines Textes, die in natürlicher Sprache vorliegen. Zur Extraktion von Informationen eines elektronisch vorliegenden Textes kommen maschinelle Verfahren zum Einsatz, da Sprache Strukturen aufweist, die maschinell verarbeitet werden können. Eine mögliche Methode Mehrwortgruppen innerhalb von elektronisch vorliegenden Fachtexten zu identifizieren und extrahieren ist ein algorithmisches Verfahren. Diese Methode erkennt Wortfolgen durch das Bilden von Wortmustern, aus denen sich eine Mehrwortgruppe in einem Text zusammensetzt. Die Wortmuster repräsentieren somit die einzelnen Bestandteile einer Mehrwortgruppe. Bereits an mathematischen Fachtexten wurde dieses Verfahren untersucht und analysiert. Relevante Mehrwortgruppen, die ein mathematisches Konzept oder mathe-matischen Inhalt repräsentierten, konnten erfolgreich extrahiert werden. Zum Einsatz kam das Indexierungssystem Lingo, mit dessen Programmodul sequencer eine algorithmische Identifizierung und Extraktion von Mehrwortgruppen möglich ist. In der vorliegenden Arbeit wird dieses algorithmische Verfahren unter Einsatz der Software Lingo genutzt, um Mehrwortgruppen aus kunsthistorischen Fachtexten zu extrahieren. Als Datenquelle dienen kunsthistorische Lexikonartikel aus dem Reallexikon zur Deutschen Kunstgeschichte, welches in deutscher Sprache vorliegt. Es wird untersucht, ob positive Ergebnisse im Sinne von fachterminologischen Mehrwort-gruppen mit kunsthistorischen Inhalten erzeugt werden können. Dabei soll zusätzlich die Einbindung von Funktionswörtern innerhalb einer Mehrwortgruppe erfolgen. Funktionswörter definieren Artikel, Konjunktionen und Präpositionen, die für sich alleinstehend keine inhaltstragende Bedeutung besitzen, allerdings innerhalb einer Mehrwortgruppe syntaktische Funktionen erfüllen. Anhand der daraus resultierenden Ergebnisse wird analysiert, ob das Hinzufügen von Funktionswörtern innerhalb einer Mehrwortgruppe zu positiven Ergebnissen führt. Ziel soll es demnach sein, fach-terminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu erzeugen, unter Einbindung von Funktionswörtern. Bei der Extraktion fachterminologischer Mehrwortgruppen wird im Folgenden insbesondere auf die Erstellung von Wortmustern eingegangen, da diese die Basis liefern, mit welchen das Programmmodul sequencer Wortfolgen innerhalb der kunst-historischen Lexikonartikel identifiziert. Eine Einordung der Indexierungsergebnisse erfolgt anhand selbst gebildeter Kriterien, die definieren, was unter einer fach-terminologischen Mehrwortgruppe zu verstehen ist.
  20. Faust, L.: Variationen von Sprache : ihre Bedeutung für unser Ohr und für die Sprachtechnologie (1997) 0.00
    0.0049014227 = product of:
      0.068619914 = sum of:
        0.068619914 = weight(_text_:bedeutung in 3452) [ClassicSimilarity], result of:
          0.068619914 = score(doc=3452,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.5557341 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.078125 = fieldNorm(doc=3452)
      0.071428575 = coord(1/14)
    

Authors

Languages

  • d 97
  • e 9
  • a 1
  • hu 1
  • More… Less…

Types