Search (80 results, page 1 of 4)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.41
    0.40594068 = product of:
      0.81188136 = sum of:
        0.115983054 = product of:
          0.34794915 = sum of:
            0.34794915 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.34794915 = score(doc=973,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.34794915 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.34794915 = score(doc=973,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.34794915 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.34794915 = score(doc=973,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.18
    0.1833553 = product of:
      0.3667106 = sum of:
        0.038661018 = product of:
          0.11598305 = sum of:
            0.11598305 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.11598305 = score(doc=5820,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.1640248 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.1640248 = score(doc=5820,freq=4.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.1640248 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.1640248 = score(doc=5820,freq=4.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(3/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.18
    0.17892152 = product of:
      0.35784304 = sum of:
        0.17397457 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17397457 = score(doc=563,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.17397457 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17397457 = score(doc=563,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009893879 = product of:
          0.029681636 = sum of:
            0.029681636 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.029681636 = score(doc=563,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.17
    0.16914195 = product of:
      0.3382839 = sum of:
        0.04832627 = product of:
          0.1449788 = sum of:
            0.1449788 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.1449788 = score(doc=4997,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.1449788 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.1449788 = score(doc=4997,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.1449788 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.1449788 = score(doc=4997,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(3/6)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.17
    0.16914195 = product of:
      0.3382839 = sum of:
        0.04832627 = product of:
          0.1449788 = sum of:
            0.1449788 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.1449788 = score(doc=4388,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.1449788 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1449788 = score(doc=4388,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1449788 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1449788 = score(doc=4388,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.17
    0.16914195 = product of:
      0.3382839 = sum of:
        0.04832627 = product of:
          0.1449788 = sum of:
            0.1449788 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.1449788 = score(doc=855,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.1449788 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.1449788 = score(doc=855,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.1449788 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.1449788 = score(doc=855,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.17
    0.16914195 = product of:
      0.3382839 = sum of:
        0.04832627 = product of:
          0.1449788 = sum of:
            0.1449788 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.1449788 = score(doc=1000,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.1449788 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1449788 = score(doc=1000,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.1449788 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1449788 = score(doc=1000,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(3/6)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.14
    0.13531356 = product of:
      0.2706271 = sum of:
        0.038661018 = product of:
          0.11598305 = sum of:
            0.11598305 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.11598305 = score(doc=701,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.11598305 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11598305 = score(doc=701,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.11598305 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11598305 = score(doc=701,freq=2.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Krömmelbein, U.: linguistische und fachwissenschaftliche Gesichtspunkte. Eine vergleichende Untersuchung der Regeln für die Schlagwortvergabe der Deutschen Bibliothek, RSWK, Voll-PRECIS und Kurz-PRECIS : Schlagwort-Syntax (1983) 0.04
    0.037372284 = product of:
      0.11211684 = sum of:
        0.09547736 = weight(_text_:forschung in 2566) [ClassicSimilarity], result of:
          0.09547736 = score(doc=2566,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 2566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=2566)
        0.016639482 = product of:
          0.049918443 = sum of:
            0.049918443 = weight(_text_:29 in 2566) [ClassicSimilarity], result of:
              0.049918443 = score(doc=2566,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38865322 = fieldWeight in 2566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2566)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    6. 1.1999 9:29:10
    Footnote
    Examensarbeit Höherer Dienst an der FHBD in Köln. - Auch veröffentlicht in: Bibliothek: Forschung und Praxis 8(1984) S.159-203
  10. Bickmann, H.-J.: Synonymie und Sprachverwendung : Verfahren zur Ermittlung von Synonymenklassen als kontextbeschränkten Äquivalenzklassen (1978) 0.03
    0.029897824 = product of:
      0.08969347 = sum of:
        0.076381885 = weight(_text_:forschung in 5890) [ClassicSimilarity], result of:
          0.076381885 = score(doc=5890,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 5890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=5890)
        0.013311585 = product of:
          0.039934754 = sum of:
            0.039934754 = weight(_text_:29 in 5890) [ClassicSimilarity], result of:
              0.039934754 = score(doc=5890,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 5890, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5890)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Enthält auf S.7-8 eine Zusammenfassung der Grundlagen der Falsifikation mit Bezug auf Poppers Logik der Forschung
    Date
    6. 6.2020 13:29:02
  11. Ribbert, U.: Terminologiekontrolle in der Schlagwortnormdatei (1989) 0.02
    0.022278052 = product of:
      0.1336683 = sum of:
        0.1336683 = weight(_text_:forschung in 642) [ClassicSimilarity], result of:
          0.1336683 = score(doc=642,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.752506 = fieldWeight in 642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.109375 = fieldNorm(doc=642)
      0.16666667 = coord(1/6)
    
    Footnote
    Hausarbeit. - Zusammenfassung erschienen in: Bibliothek: Forschung und Praxis 16(1992) S.9-25.
  12. Gröschel, P.: Prometheus: das verteilte digitale Bildarchiv für Forschung und Lehre : Die Zusammenführung von Ressourcen aus heterogenen Informationssystemen (2004) 0.02
    0.019095473 = product of:
      0.11457283 = sum of:
        0.11457283 = weight(_text_:forschung in 4528) [ClassicSimilarity], result of:
          0.11457283 = score(doc=4528,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.64500517 = fieldWeight in 4528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=4528)
      0.16666667 = coord(1/6)
    
  13. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.013251713 = product of:
      0.07951027 = sum of:
        0.07951027 = product of:
          0.1192654 = sum of:
            0.059902128 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.059902128 = score(doc=9,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.059363272 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.059363272 = score(doc=9,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
  14. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.01
    0.011139026 = product of:
      0.06683415 = sum of:
        0.06683415 = weight(_text_:forschung in 1562) [ClassicSimilarity], result of:
          0.06683415 = score(doc=1562,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.376253 = fieldWeight in 1562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.16666667 = coord(1/6)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
  15. Hilgers, C.; Maddi, Y.: Fachlexika als Online-Informationsspeicher : Konzeption und Erstellung einer Online-Datenbank zur Bewertung aktueller Trends aus Sicht der Lexikographie und der Usabilityforschung (2004) 0.01
    0.011139026 = product of:
      0.06683415 = sum of:
        0.06683415 = weight(_text_:forschung in 3698) [ClassicSimilarity], result of:
          0.06683415 = score(doc=3698,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.376253 = fieldWeight in 3698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3698)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel ist die Bewertung meist einsprachiger (weniger mehrsprachiger) Online-Fachlexika mit einschlägigen Usability- und Accessibility-Kriterien und solchen der Lexikographie. Nach Behandlung der theoretischen Grundlagen der Usability-Forschung, der Accessibility-Guidelines zur Nutzung von Websites und der Lexikographie, werden Bewertungskriterien (Heuristiken), Abläufe der heuristischen Evaluation (keine Benutzertests) und die Präsentation der Ergebnisse erarbeitet. Getestet werden im Internet frei zugängliche, kostenlose Fachlexika und Glossare und die Ergebnisse in einer entwickelten php/MySOL-Datenbank präsentiert, mit Empfehlungen für die bessere Gestaltung der Online-Nachschlagewerke.
  16. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.0095477365 = product of:
      0.057286415 = sum of:
        0.057286415 = weight(_text_:forschung in 558) [ClassicSimilarity], result of:
          0.057286415 = score(doc=558,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.16666667 = coord(1/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  17. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.01
    0.009001692 = product of:
      0.05401015 = sum of:
        0.05401015 = weight(_text_:forschung in 2442) [ClassicSimilarity], result of:
          0.05401015 = score(doc=2442,freq=4.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.30405834 = fieldWeight in 2442, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
      0.16666667 = coord(1/6)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
    Footnote
    Rez. in: Bibliothek: Forschung und Praxis 28(2004) H.1, S.132-135 (H. Flachmann)
  18. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.01
    0.008834476 = product of:
      0.05300685 = sum of:
        0.05300685 = product of:
          0.07951027 = sum of:
            0.039934754 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.039934754 = score(doc=1409,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.039575513 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.039575513 = score(doc=1409,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  19. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.008004317 = product of:
      0.0480259 = sum of:
        0.0480259 = product of:
          0.072038844 = sum of:
            0.042357206 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.042357206 = score(doc=4408,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.029681636 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.029681636 = score(doc=4408,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  20. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.007956447 = product of:
      0.04773868 = sum of:
        0.04773868 = weight(_text_:forschung in 2508) [ClassicSimilarity], result of:
          0.04773868 = score(doc=2508,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.

Languages

  • d 68
  • e 10
  • f 1
  • hu 1
  • More… Less…

Types