Search (135 results, page 1 of 7)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.67
    0.67459935 = product of:
      1.2142788 = sum of:
        0.09340607 = product of:
          0.28021818 = sum of:
            0.28021818 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.28021818 = score(doc=973,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.28021818 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28021818 = score(doc=973,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28021818 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28021818 = score(doc=973,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28021818 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28021818 = score(doc=973,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28021818 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28021818 = score(doc=973,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5555556 = coord(5/9)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.40
    0.3954329 = product of:
      0.5931493 = sum of:
        0.14010909 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14010909 = score(doc=563,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.020761002 = product of:
          0.041522004 = sum of:
            0.041522004 = weight(_text_:web in 563) [ClassicSimilarity], result of:
              0.041522004 = score(doc=563,freq=8.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.43268442 = fieldWeight in 563, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
        0.14010909 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14010909 = score(doc=563,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14010909 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14010909 = score(doc=563,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14010909 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14010909 = score(doc=563,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.023903877 = score(doc=563,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.6666667 = coord(6/9)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.35
    0.34728834 = product of:
      0.5209325 = sum of:
        0.038919196 = product of:
          0.11675758 = sum of:
            0.11675758 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.11675758 = score(doc=4997,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.11675758 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4997,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.014982964 = product of:
          0.029965928 = sum of:
            0.029965928 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
              0.029965928 = score(doc=4997,freq=6.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3122631 = fieldWeight in 4997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
        0.11675758 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4997,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11675758 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4997,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11675758 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4997,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.6666667 = coord(6/9)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.34
    0.34306663 = product of:
      0.5145999 = sum of:
        0.038919196 = product of:
          0.11675758 = sum of:
            0.11675758 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.11675758 = score(doc=4388,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.11675758 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4388,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.008650418 = product of:
          0.017300837 = sum of:
            0.017300837 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
              0.017300837 = score(doc=4388,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.18028519 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
        0.11675758 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4388,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11675758 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4388,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11675758 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11675758 = score(doc=4388,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.6666667 = coord(6/9)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.34
    0.34306663 = product of:
      0.5145999 = sum of:
        0.038919196 = product of:
          0.11675758 = sum of:
            0.11675758 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.11675758 = score(doc=1000,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.11675758 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11675758 = score(doc=1000,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.008650418 = product of:
          0.017300837 = sum of:
            0.017300837 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
              0.017300837 = score(doc=1000,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.18028519 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
        0.11675758 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11675758 = score(doc=1000,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11675758 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11675758 = score(doc=1000,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11675758 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11675758 = score(doc=1000,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.6666667 = coord(6/9)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  6. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.31
    0.31084433 = product of:
      0.55951977 = sum of:
        0.031135354 = product of:
          0.09340606 = sum of:
            0.09340606 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.09340606 = score(doc=5820,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.13209611 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13209611 = score(doc=5820,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13209611 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13209611 = score(doc=5820,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13209611 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13209611 = score(doc=5820,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13209611 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13209611 = score(doc=5820,freq=4.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5555556 = coord(5/9)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.28
    0.28108308 = product of:
      0.5059495 = sum of:
        0.038919196 = product of:
          0.11675758 = sum of:
            0.11675758 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.11675758 = score(doc=855,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.11675758 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11675758 = score(doc=855,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11675758 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11675758 = score(doc=855,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11675758 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11675758 = score(doc=855,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11675758 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11675758 = score(doc=855,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5555556 = coord(5/9)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.28
    0.27636427 = product of:
      0.4145464 = sum of:
        0.031135354 = product of:
          0.09340606 = sum of:
            0.09340606 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.09340606 = score(doc=701,freq=2.0), product of:
                0.24929643 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.09340606 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09340606 = score(doc=701,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.009786831 = product of:
          0.019573662 = sum of:
            0.019573662 = weight(_text_:web in 701) [ClassicSimilarity], result of:
              0.019573662 = score(doc=701,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.2039694 = fieldWeight in 701, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.5 = coord(1/2)
        0.09340606 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09340606 = score(doc=701,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.09340606 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09340606 = score(doc=701,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.09340606 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09340606 = score(doc=701,freq=2.0), product of:
            0.24929643 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02940506 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6666667 = coord(6/9)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  9. Ebeid, N.: Kataloganreicherung / user-created content : oder: Wieso funktioniert mein OPAC nicht wie Amazon? (2009) 0.03
    0.025206491 = product of:
      0.11342921 = sum of:
        0.014982964 = product of:
          0.029965928 = sum of:
            0.029965928 = weight(_text_:web in 4606) [ClassicSimilarity], result of:
              0.029965928 = score(doc=4606,freq=6.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3122631 = fieldWeight in 4606, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4606)
          0.5 = coord(1/2)
        0.09844625 = weight(_text_:benutzerfreundlichkeit in 4606) [ClassicSimilarity], result of:
          0.09844625 = score(doc=4606,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.43005705 = fieldWeight in 4606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4606)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Aufkommen des Web 2.0 im Jahr 2004 signalisierte einen Wechsel in der Internetnutzung. Beim Web 2.0 stehen die Nutzer und deren Informationsbedürfnisse im Mittelpunkt. Dies bedeutet auch für Bibliotheken eine Herausforderung. Der Online-Katalog als zentrale Dienstleistung ist von diesen Änderungen besonders betroffen. Hersteller von Bibliothekssoftware und Bibliotheken sind mit der Tatsache konfrontiert, dass immer mehr Menschen für ihre Informationsanliegen das Internet verwenden und Bibliothekskataloge umgehen. Bibliothekarische Webseiten können oft nicht mit Oberflächen wie denen von Google oder Amazon hinsichtlich Benutzerfreundlichkeit konkurrieren. Um nicht weiter in der Wahrnehmung der Nutzer zurückzufallen müssen Bibliotheken ihre Konzepte und Angebote gründlich analysieren. Das Ziel dieser Arbeit ist es, Schwächen und Probleme von konventionellen Online-Katalogen aufzuzeigen und welche Möglichkeiten es gibt, den OPAC für Nutzer attraktiver zu gestalten. Zuerst werden Informationen zum Thema in einschlägigen Publikationen gesammelt. Im Anschluss erfolgt eine Zusammenfassung und Auswertung der erarbeiteten Literatur. Dann werden einige Hochschulbibliotheken vorgestellt, die in ihren OPACs bereits Web 2.0-Anwendungen anbieten bzw. planen. Außerdem werden qualitative Interviews mit Bibliothekaren durchgeführt, die zuständig sind für einen OPAC 2.0. Mit den in den Interviews getätigten Aussagen soll ein aktueller Stand hinsichtlich OPAC-Entwicklung bezweckt werden. Ein wesentliches Ergebnis dieser Arbeit ist, dass es den OPAC 2.0 nicht gibt, und dass jede Bibliothek spezifische Erfordernisse hat, was einen Online-Katalog anbelangt. Daher wird vorgeschlagen, dass Bibliotheken zunächst sich und ihre Arbeitsumfeld sorgfältig analysieren, insbesondere ihre Zielgruppen. Aufgrund der Tatsache, dass es viele Attribute für einen OPAC 2.0 gibt, sollten Entscheidungsträger in Bibliotheken sorgfältig abwägen, welche Instrumente und Anwendungen erforderlich und sinnvoll sind.
  10. Fichtner, K.: Boyer-Moore Suchalgorithmus (2005) 0.02
    0.0154376365 = product of:
      0.06946936 = sum of:
        0.030576602 = product of:
          0.061153203 = sum of:
            0.061153203 = weight(_text_:seite in 864) [ClassicSimilarity], result of:
              0.061153203 = score(doc=864,freq=2.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3713015 = fieldWeight in 864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=864)
          0.5 = coord(1/2)
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 864) [ClassicSimilarity], result of:
              0.077785514 = score(doc=864,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=864)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Die Masse der Suchalgorithmen lässt sich in zwei grundlegend verschiedene Teilbereiche untergliedern. Auf der einen Seite stehen Algorithmen, die auf komplexen Datenstrukturen (häufig baumartig) ganze Datensätze unter Verwendung eines Indizes finden. Als geläufiger Vertreter sei hier die binäre Suche auf sortierten Arrays oder in binären Bäumen genannt. Die andere Gruppe, der sich diese Ausarbeitung widmet, dient dazu, Entsprechungen von Mustern in gegebenen Zeichenketten zu finden. Auf den folgenden Seiten werden nun zunächst einige Begriffe eingeführt, die für das weitere Verständnis und einen Vergleich verschiedener Suchalgorithmen nötig sind. Weiterhin wird ein naiver Suchalgorithmus dargestellt und mit der Idee von Boyer und Moore verglichen. Hierzu wird ihr Algorithmus zunächst informal beschrieben, dann mit Blick auf eine Implementation näher erläutert und anschließend einer Effizienzanalyse - sowohl empirisch als auch theoretisch - unterzogen. Abschließend findet eine kurze Bewertung mit Bezug auf Schwachstellen, Vorzüge und Verbesserungsmöglichkeiten statt, im Zuge derer einige prominente Modifikationen des Boyer-Moore Algorithmus vorgestellt werden.
  11. Weidler, D.: Usability-Inspektionen und Usability-Tests : Komplementäre Methoden für die Evaluation eines E-Learning-Moduls (2004) 0.02
    0.015313861 = product of:
      0.13782474 = sum of:
        0.13782474 = weight(_text_:benutzerfreundlichkeit in 3706) [ClassicSimilarity], result of:
          0.13782474 = score(doc=3706,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.60207987 = fieldWeight in 3706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
      0.11111111 = coord(1/9)
    
    Abstract
    Benutzer von E-Learning-Produkten sind einer Doppelbeiastung ausgesetzt: Aufnehmen von Lernstoff und Erlernen des Umgangs mit Programmen. Der Gefahr, Benutzer einer kognitiven Überlastung auszusetzen, kann eine gute Usability entgegenwirken. Es werden Benutzerfreundlichkeit von Teilen eines E-Learning-Moduls »Automatische Inhaltserschließung« untersucht mit analytischen Inspektionsmethoden und empirischen Usability-Tests. Da der Designprozeß nicht iterativ gestaltet wurde, dienen die Ergebnisse aus den Inspektionen zur Vorbereitung der Tests. Die Testergebnisse werden genutzt, um Erkenntnisse der expertenorientierten Methoden zu verifizieren. Es wird analysiert, ob die Inspektionsmethoden Probleme aufdecken, die auch von den Teilnehmern an den Usability-Tests als solche empfunden wurden. Zur praktischen Umsetzung der Lösungsansätze werden Usability-Reports verfaßt und ein Storyboard konzipiert.
  12. Klein-Magar, M.: Elektronisches Publizieren auf CD-ROM : Untersuchungen und Bewertungen der Benutzerschnittstellen von Volltextdatenbanken (1990) 0.01
    0.013126167 = product of:
      0.1181355 = sum of:
        0.1181355 = weight(_text_:benutzerfreundlichkeit in 7073) [ClassicSimilarity], result of:
          0.1181355 = score(doc=7073,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.51606846 = fieldWeight in 7073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.046875 = fieldNorm(doc=7073)
      0.11111111 = coord(1/9)
    
    Abstract
    Die vorliegende Arbeit untersucht aus Endnutzersicht Aspekte des Anwendungsdesigns von CD-ROM Volltextdatenbanken. Im Mittelpunkt des Berichts stehen an software-ergonomischen Prüfkriterien orientierte, empirische Untersuchungen und Bewertungen der Benutzerschnittstellen von 7 ausgewählten Volltextdatenbanken auf CD-ROM, deren Inhalte sich sowohl bezüglich ihrer Dokumenttypen als auch bezüglich ihrer Fachgebiete unterscheiden. Produktevaluationen oder Untersuchungen der Effektivität der CD-ROM-Anwendungen wurden nicht angestrebt. Die zentrale Fragestellung bezog sich vielmehr auf die Benutzerfreundlichkeit der Systeme, wobei die Funktionalität der Anwendungen insofern angesprochjen wurde, als die Frage nach der Angemessenheit der Benutzerschnittstellengestaltung bezüglich des Informationsinhalts und der Aufgaben, die sich dem Nutzer in seinem (fachlichen) Arbeitskontext stellen, beantwortet wurde. Die Ergebnisse der Untersuchungen lassen erhebliche Mängel von CD-ROM-Schnittstellen erkennen und weisen die Notwendigkeit einer engen Abstimmung der Schnittstellen-Realisierunbgen bezüglich der Anforderungen, die der Umgang mit Volltexten erfordert, der CD-ROM Inhalte und der Fachwelten, auf die die Anwendungen zielen, nach
  13. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.0123989675 = product of:
      0.111590706 = sum of:
        0.111590706 = sum of:
          0.077785514 = weight(_text_:bewertung in 4441) [ClassicSimilarity], result of:
            0.077785514 = score(doc=4441,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.41876122 = fieldWeight in 4441, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.046875 = fieldNorm(doc=4441)
          0.03380519 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
            0.03380519 = score(doc=4441,freq=4.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.32829654 = fieldWeight in 4441, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4441)
      0.11111111 = coord(1/9)
    
    Abstract
    Welche qualitativen Verbesserungsmöglichkeiten bieten Mailinglisten für den bibliothekarischen Informationsdienst? Nach einem Überblick über Aufgaben und Formen bibliothekarischer Informationsdienstleistungen und einer Einführung in Mailinglisten für den Informationsdienst wird in dieser Arbeit exemplarisch die im Juli als deutschsprachigen Pendant zu Stumpers-L für Auskunftsbibliothekare gegründete Mailingliste 'RABE' (Recherche und Auskunft in bibliothekarischen Einrichtungen) beschrieben und analysiert. Dazu werden die Ergebnisse zweier empirischer Untersuchungen herangezogen: einer im März 1999 durchgeführten Umfrage unter den Listenmitgliedern und einer Auswertung der im WWW-Archiv von RABE bis Februar 1999 gespeicherten Listenbeiträge. Unter anderem wurde dabei die institutionelle und geographische Herkunft der Listenmitglieder, ihr Nutzungsverhalten (Aktivitätsprofile), ihre Erfahrungen mit RABE und die zur Beantwortung von Auskunftsfragen verwendeten Informationsquellen untersucht. Abschließend erfolgt eine Bewertung von RABE als Instrument im bibliothekarischen Informationsdienst
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
  14. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.01
    0.012306177 = product of:
      0.11075559 = sum of:
        0.11075559 = sum of:
          0.038685847 = weight(_text_:web in 115) [ClassicSimilarity], result of:
            0.038685847 = score(doc=115,freq=10.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.40312994 = fieldWeight in 115, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
          0.07206974 = weight(_text_:seite in 115) [ClassicSimilarity], result of:
            0.07206974 = score(doc=115,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.43758303 = fieldWeight in 115, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
      0.11111111 = coord(1/9)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Theme
    Semantic Web
  15. Eichmann, S.: Global books in print (GBIP) : Analyse und Bewertung (1995) 0.01
    0.01152378 = product of:
      0.10371402 = sum of:
        0.10371402 = product of:
          0.20742804 = sum of:
            0.20742804 = weight(_text_:bewertung in 6071) [ClassicSimilarity], result of:
              0.20742804 = score(doc=6071,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                1.1166966 = fieldWeight in 6071, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.125 = fieldNorm(doc=6071)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
  16. Richter, C.: ¬Die inhaltliche Erschließung von Musiktonträgern in Bibliotheken : Analyse und Bewertung verschiedener Erschließungsmethoden in ausgewählten Bibliotheken (1991) 0.01
    0.0100833075 = product of:
      0.09074977 = sum of:
        0.09074977 = product of:
          0.18149954 = sum of:
            0.18149954 = weight(_text_:bewertung in 5031) [ClassicSimilarity], result of:
              0.18149954 = score(doc=5031,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.97710955 = fieldWeight in 5031, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5031)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
  17. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.008750779 = product of:
      0.078757 = sum of:
        0.078757 = weight(_text_:benutzerfreundlichkeit in 1076) [ClassicSimilarity], result of:
          0.078757 = score(doc=1076,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.34404564 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.11111111 = coord(1/9)
    
    Abstract
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  18. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.01
    0.008425528 = product of:
      0.037914876 = sum of:
        0.011986371 = product of:
          0.023972742 = sum of:
            0.023972742 = weight(_text_:web in 973) [ClassicSimilarity], result of:
              0.023972742 = score(doc=973,freq=6.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.24981049 = fieldWeight in 973, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=973)
          0.5 = coord(1/2)
        0.025928505 = product of:
          0.05185701 = sum of:
            0.05185701 = weight(_text_:bewertung in 973) [ClassicSimilarity], result of:
              0.05185701 = score(doc=973,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27917415 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=973)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  19. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.01
    0.0076569305 = product of:
      0.06891237 = sum of:
        0.06891237 = weight(_text_:benutzerfreundlichkeit in 2490) [ClassicSimilarity], result of:
          0.06891237 = score(doc=2490,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.30103993 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
  20. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.007299742 = product of:
      0.03284884 = sum of:
        0.0069203344 = product of:
          0.013840669 = sum of:
            0.013840669 = weight(_text_:web in 866) [ClassicSimilarity], result of:
              0.013840669 = score(doc=866,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.14422815 = fieldWeight in 866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=866)
          0.5 = coord(1/2)
        0.025928505 = product of:
          0.05185701 = sum of:
            0.05185701 = weight(_text_:bewertung in 866) [ClassicSimilarity], result of:
              0.05185701 = score(doc=866,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27917415 = fieldWeight in 866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=866)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.

Authors

Years

Languages

  • d 106
  • e 25
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types