Search (39 results, page 1 of 2)

  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.77
    0.7695663 = product of:
      1.7101474 = sum of:
        0.0684059 = product of:
          0.20521767 = sum of:
            0.20521767 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.20521767 = score(doc=973,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20521767 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20521767 = score(doc=973,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.45 = coord(9/20)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.43
    0.43013546 = product of:
      0.78206444 = sum of:
        0.028502457 = product of:
          0.08550737 = sum of:
            0.08550737 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.08550737 = score(doc=4388,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.029140918 = weight(_text_:zukunft in 4388) [ClassicSimilarity], result of:
          0.029140918 = score(doc=4388,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.27341282 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08550737 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4388,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.040362034 = weight(_text_:handbuch in 4388) [ClassicSimilarity], result of:
          0.040362034 = score(doc=4388,freq=2.0), product of:
            0.12543516 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.021534784 = queryNorm
            0.3217761 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.55 = coord(11/20)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.37
    0.37201774 = product of:
      0.8267061 = sum of:
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10260884 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10260884 = score(doc=563,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.0058353315 = product of:
          0.017505994 = sum of:
            0.017505994 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.017505994 = score(doc=563,freq=2.0), product of:
                0.07541114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021534784 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.45 = coord(9/20)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.36
    0.35852683 = product of:
      0.7967263 = sum of:
        0.022801965 = product of:
          0.0684059 = sum of:
            0.0684059 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.0684059 = score(doc=5820,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.096740544 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.096740544 = score(doc=5820,freq=4.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.45 = coord(9/20)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  5. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.32
    0.32065263 = product of:
      0.7125614 = sum of:
        0.028502457 = product of:
          0.08550737 = sum of:
            0.08550737 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.08550737 = score(doc=4997,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08550737 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08550737 = score(doc=4997,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.45 = coord(9/20)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.32
    0.32065263 = product of:
      0.7125614 = sum of:
        0.028502457 = product of:
          0.08550737 = sum of:
            0.08550737 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.08550737 = score(doc=855,freq=2.0), product of:
                0.18257214 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021534784 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08550737 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08550737 = score(doc=855,freq=2.0), product of:
            0.18257214 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021534784 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.45 = coord(9/20)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Becker, T.: Potentielle Funktionen von Wissensmanagement in Öffentlichen Bibliotheken : eine szenariobasierte Delphi-Studie mit Wissensexperten aus britischen und deutschen Großstadtbibliotheken (2014) 0.02
    0.016476447 = product of:
      0.08238223 = sum of:
        0.017702876 = weight(_text_:wissen in 2093) [ClassicSimilarity], result of:
          0.017702876 = score(doc=2093,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.19060494 = fieldWeight in 2093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.032969184 = weight(_text_:zukunft in 2093) [ClassicSimilarity], result of:
          0.032969184 = score(doc=2093,freq=4.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.3093313 = fieldWeight in 2093, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.027784634 = weight(_text_:bibliothek in 2093) [ClassicSimilarity], result of:
          0.027784634 = score(doc=2093,freq=6.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.3142642 = fieldWeight in 2093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.003925534 = product of:
          0.011776602 = sum of:
            0.011776602 = weight(_text_:29 in 2093) [ClassicSimilarity], result of:
              0.011776602 = score(doc=2093,freq=2.0), product of:
                0.07575264 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021534784 = queryNorm
                0.15546128 = fieldWeight in 2093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2093)
          0.33333334 = coord(1/3)
      0.2 = coord(4/20)
    
    Abstract
    Nach der Herleitung und Skizzierung der 'szenariobasierten Delphi-Studie' als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur- Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. Wissensmanagement, so das Ergebnis der Untersuchung, der professionelle Umgang mit der Ressource Wissen in den Dimensionen Individuelles, Internes, Externes und Systemisches Wissensmanagement, findet bereits gegenwärtig in Öffentliche Bibliotheken statt; Wissensmanagement wird, so konstatieren die Wissensexperten weiter, zudem sowohl in Großbritannien als auch in Deutschland zukünftig als andauernde Querschnittsaufgabe jeder Öffentlichen Bibliothek angesehen und mit unterschiedlicher Intensität, unter heterogenen Rahmenbedingungen, aber immer mit vielversprechendem Erfolg betrieben werden.
    Content
    Vgl. auch: http://edoc.hu-berlin.de/dissertationen/becker-thomas-2014-04-29/PDF/becker.pdf.
  8. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.0060326844 = product of:
      0.060326844 = sum of:
        0.030163422 = product of:
          0.09049027 = sum of:
            0.09049027 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.09049027 = score(doc=4089,freq=2.0), product of:
                0.2099852 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021534784 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
        0.030163422 = product of:
          0.09049027 = sum of:
            0.09049027 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.09049027 = score(doc=4089,freq=2.0), product of:
                0.2099852 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021534784 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
  9. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.01
    0.005749849 = product of:
      0.05749849 = sum of:
        0.029140918 = weight(_text_:zukunft in 4570) [ClassicSimilarity], result of:
          0.029140918 = score(doc=4570,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.27341282 = fieldWeight in 4570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
        0.028357571 = weight(_text_:bibliothek in 4570) [ClassicSimilarity], result of:
          0.028357571 = score(doc=4570,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.32074454 = fieldWeight in 4570, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
      0.1 = coord(2/20)
    
    Content
    "Das Thema 'Cognitive Map einer Bibliothek' hat mich von Beginn an interessiert. Methoden anwenden, um den Bedürfnissen der Nutzer zu entsprechen, ist für Bibliotheken eine Möglichkeit sich auch in Zukunft als Wissensplatz zu positionieren. Das Spannende an dieser Arbeit war, sich zunächst in den vielen Anwendungsmöglichkeiten der Methode zurechtzufinden, einige davon auszuprobieren und schlussendlich herauszufinden, ob die Methode als sinnvoll für Bibliotheken bezeichnet werden kann."
  10. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.005048617 = product of:
      0.050486166 = sum of:
        0.022128595 = weight(_text_:wissen in 4321) [ClassicSimilarity], result of:
          0.022128595 = score(doc=4321,freq=2.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.23825617 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.028357571 = weight(_text_:bibliothek in 4321) [ClassicSimilarity], result of:
          0.028357571 = score(doc=4321,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.32074454 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.1 = coord(2/20)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
  11. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.00
    0.004919275 = product of:
      0.04919275 = sum of:
        0.029140918 = weight(_text_:zukunft in 4033) [ClassicSimilarity], result of:
          0.029140918 = score(doc=4033,freq=2.0), product of:
            0.10658212 = queryWeight, product of:
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.021534784 = queryNorm
            0.27341282 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.949301 = idf(docFreq=851, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
        0.020051831 = weight(_text_:bibliothek in 4033) [ClassicSimilarity], result of:
          0.020051831 = score(doc=4033,freq=2.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.22680065 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
      0.1 = coord(2/20)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
  12. Holze, J.: Digitales Wissen : bildungsrelevante Relationen zwischen Strukturen digitaler Medien und Konzepten von Wissen (2017) 0.00
    0.0039584837 = product of:
      0.079169676 = sum of:
        0.079169676 = weight(_text_:wissen in 3984) [ClassicSimilarity], result of:
          0.079169676 = score(doc=3984,freq=10.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.85241127 = fieldWeight in 3984, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0625 = fieldNorm(doc=3984)
      0.05 = coord(1/20)
    
    Abstract
    Wie verändern sich Begriffe von Wissen und Wissensgenerierung im Zeitalter digitaler Medien? Welche Implikationen können daraus für den Begriff der (Strukturalen Medien-)Bildung innerhalb einer Disziplin der Medienpädagogik abgeleitet werden? Inwieweit findet eine Transformation hin zu einem qualitativ anderen Wissen, gar einem digitalen Wissen statt?
  13. Younansardaroud, H.: Inhaltliche Anpassung der RVK als Aufstellungsklassifikation : Projekt Bibliotheksneubau Kleine Fächer der FU Berlin, Islamwissenschaft (2010) 0.00
    0.00299505 = product of:
      0.0299505 = sum of:
        0.024062198 = weight(_text_:bibliothek in 218) [ClassicSimilarity], result of:
          0.024062198 = score(doc=218,freq=2.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.27216077 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.0058883014 = product of:
          0.017664904 = sum of:
            0.017664904 = weight(_text_:29 in 218) [ClassicSimilarity], result of:
              0.017664904 = score(doc=218,freq=2.0), product of:
                0.07575264 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021534784 = queryNorm
                0.23319192 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.33333334 = coord(1/3)
      0.1 = coord(2/20)
    
    Abstract
    Im Zusammenhang mit der Bibliotheksstrukturreform der Freien Universität Berlin soll für die sog. "Kleinen Fächer" des Fachbereichs Geschichts- und Kulturwissenschaften eine integrierte Bibliothek mit einem gemeinsamen Standort entstehen. Die Bestände der Fachbibliotheken der "Kleinen Fächer" sollen retrokatalogisiert und für eine Freihandaufstellung schrittweise nach der Regensburger Verbundklassifikation (= RVK) einheitlich erschlossen werden. Im Rahmen dieser Masterarbeit soll untersucht werden, inwieweit die RVK den Bedürfnissen der Fachbibliothek der Islamwissenschaft entspricht. Dabei soll beantwortet werden, ob die RVK für die nach der Haussystematik aufgestellten islamwissenschaftlichen Bibliotheksbestände ausreicht bzw. aussagekräftig ist. Die Haussystematik ist veraltet und leidet vor allem unter einer inkonsistenten Anwendung. Die Mängel werden anhand von ausgewählten Beispielen aufgezeigt. Durch Anwendung der Crosskonkordanz-Methodik werden Verknüpfungen zwischen den beiden Systematiken herausgearbeitet und Erweiterungsmöglichkeiten der RVK für die islamwissenschaftlichen Bestände aufgezeigt.
    Date
    4. 6.2012 17:54:29
  14. Aprin, L.: Entwicklung eines semantisch operierenden Risikomanagement-Informationssystems am Beispiel der Europäischen Organisation für Kernforschung (CERN) (2012) 0.00
    0.0023418707 = product of:
      0.04683741 = sum of:
        0.04683741 = weight(_text_:wissen in 2286) [ClassicSimilarity], result of:
          0.04683741 = score(doc=2286,freq=14.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.5042933 = fieldWeight in 2286, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
      0.05 = coord(1/20)
    
    Abstract
    Unter dem Begriff der Risikoanalyse wird das systematische Bestreben zusammengefasst, die mit Projekten und Handlungen assoziierten Gefahren innerhalb einer Organisation zu erfassen, zu evaluieren und einer Risikoregulierung zugänglich zu machen. Risikoanalysen sind ein integraler Bestandteil des Risikomanagements und damit wesentlich für die Konsolidierung von Sicherheit. Die Adäquatheit und Zuverlässigkeit der risikoanalytisch beförderten Einsichten hängen dabei unmittelbar von der Verfügbarkeit und der Qualität der organisational angebotenen Wissensbestände ab. Der Zugang zu entscheidungsrelevantem Wissen wird in der arbeitsweltlichen Realität allerdings durch das Wirken unterschiedlicher Informationsbarrieren erschwert. Wissen, das dem Verstehen und Vermeiden von Risiken dienlich ist, lagert häufig in sehr spezialisierten Datenbanksystemen, deren individuelle syntaktische und semantische Strukturen eine Verwendung des Wissens in anderen als den ursprünglich mit den Datenbanken verknüpften Anwendungskontexten zu einem sehr zeit- und arbeitsintensiven Unterfangen machen. Auch erschwert ein mit der Semistrukturiertheit vieler Dokumentations- und Berichtssysteme einhergehender Ambiguitätsgrad eine effiziente automatisierte Wissensverarbeitung bspw. im Zusammenhang mit Suchmaschinen.
    Mit dieser Dissertation wird ein Beitrag zur Überwindung der bestehenden Wissensbarrieren im Risikomanagement vorgelegt. Methodisch wird hierzu die Anwendung semantischer Verfahren zur Repräsentation von Wissen auf die Domäne der Risikoanalyse vorgeschlagen. Im Mittelpunkt steht das sogenannte Semantic Web, das als Weiterentwicklung des World Wide Webs die Bedeutung von Wissenszusammenhängen explizit zu erfassen und abzubilden erlaubt. Zeichnet sich das gegenwärtige Risikomanagement durch eine dokumentengebundene Organisation und Distribution von Wissen aus, werden mit dem Semantic Web Verfahren und Werkzeuge vorgelegt, die eine Operationalisierung des Wissens direkt auf der Datensatzebene ermöglichen. Darauf aufbauend wird das Konzept eines semantisch operierenden Risikomanagement-Informationssystems entworfen. Den Kern dieses Entwurfs bildet die Idee, risikoanalytisch relevantes Wissen nicht nach traditionellem Verständnis als textuelle Berichte oder relationale Datenbankeinträge zu speichern, sondern in Form einer stetig wachsenden Ontologie zu dokumentieren. Zur Gewährleistung eines bedarfsgerechten Zugriffs auf das ontologisch archivierte Wissen wurde das Konzept einer Suchmaschine entwickelt, mit der sich für anstehende Arbeitsvorgänge prüfen lässt, ob zu diesen historisch identische oder ähnliche Arbeitsvorgänge dokumentiert sind, die sich zu kritischen Zwischenfällen entfalteten. Den Risikomanagern wird ein Werkzeug bereitgestellt, das entscheidungsrelevantes Wissen sehr präzise und zeitnah abzufragen erlaubt und damit zu einer verbesserten Adäquatheit der risikoanalytischen Einsichten beiträgt.
  15. Malkawi, K.: ¬Die Einführung der RVK als Aufstellungsklassifikation : ein Projekt an der Bibliothek Orientwissenschaften der Universitätsbibliothek Leipzig (2010) 0.00
    0.00198503 = product of:
      0.0397006 = sum of:
        0.0397006 = weight(_text_:bibliothek in 4034) [ClassicSimilarity], result of:
          0.0397006 = score(doc=4034,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.44904238 = fieldWeight in 4034, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4034)
      0.05 = coord(1/20)
    
    Abstract
    Thema der vorliegenden Arbeit ist die Einführung der Regensburger Verbundklassifikation als Aufstellungsklassifikation in der Bibliothek Orientwissenschaften der Universitätsbibliothek Leipzig. Aufgrund der komplexen Ausgangslage konzipiert die Verfasserin die Einführung der RVK als Projekt unter Anwendung des Verfahrens des Projektmanagements. Projektmanagement wird dabei aus rein betriebswirtschaftlicher Sicht, aber auch als Kern organisationaler Veränderungsprozesse innerhalb der Organisationsentwicklung betrachtet. Organisationsentwicklung schließt ein, was die Diskussion um Produktivität und Effizienz von Bibliotheken oft nicht ausreichend berücksichtigt: den humanen Faktor. Neben den harten Fakten berücksichtigt der vorgelegte Projektplan somit ausdrücklich situative und psychosoziale Prozesse als maßgebliche weiche Dimension des Projektmanagement.
  16. Schwarz, H.: ¬Das Deutsche Bibliotheksinstitut : im Spannungsfeld zwischen Auftrag und politischem Interesse (2017) 0.00
    0.00198503 = product of:
      0.0397006 = sum of:
        0.0397006 = weight(_text_:bibliothek in 3725) [ClassicSimilarity], result of:
          0.0397006 = score(doc=3725,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.44904238 = fieldWeight in 3725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
      0.05 = coord(1/20)
    
    RSWK
    Deutschland / Deutsches Bibliotheksinstitut / Bibliothek / Geschichte 1978-2003
    Subject
    Deutschland / Deutsches Bibliotheksinstitut / Bibliothek / Geschichte 1978-2003
  17. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.00
    0.0018971319 = product of:
      0.037942637 = sum of:
        0.037942637 = weight(_text_:wissen in 4658) [ClassicSimilarity], result of:
          0.037942637 = score(doc=4658,freq=12.0), product of:
            0.09287732 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.021534784 = queryNorm
            0.40852425 = fieldWeight in 4658, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.05 = coord(1/20)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  18. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.00
    0.0017365396 = product of:
      0.034730792 = sum of:
        0.034730792 = weight(_text_:bibliothek in 115) [ClassicSimilarity], result of:
          0.034730792 = score(doc=115,freq=6.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.39283025 = fieldWeight in 115, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.05 = coord(1/20)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
  19. Kloiber, M.: Umstellung der Belletristikabteilung einer kleineren öffentlichen Bibliothek : Von alphabetischer Aufstellung zu einer Aufstellung nach mit den Lesern in Workshops erarbeiteten Interessenkreisen (2012) 0.00
    0.0017014545 = product of:
      0.03402909 = sum of:
        0.03402909 = weight(_text_:bibliothek in 215) [ClassicSimilarity], result of:
          0.03402909 = score(doc=215,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.38489348 = fieldWeight in 215, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=215)
      0.05 = coord(1/20)
    
    Abstract
    Die Aufstellung nach Interessenkreisen wurde in den 1980er und 1990er Jahren im Umfeld der Öffentlichen Bibliotheken viel diskutiert. Danach geriet das Thema aus dem Rampenlicht. Erst mit den sogenannten Themenbibliotheken und Themenwelten gewann es wieder an Bedeutung. Im Rahmen der vorliegenden Arbeit wird dargestellt, wie eine kleine Öffentliche Bibliothek die Umstellung ihres Belletristikbereichs nach Interessenkreisen realisiert und dabei ihre Nutzer "ins Boot holt". Der aus dem Marketing stammende Ansatz der User Driven Innovation wird dabei in die Tat umgesetzt. Die Arbeit zeigt, wie sich eine Befragung der Nutzer über die Methode der Gruppendiskussion auf die Erarbeitung eines Sets an Interessenkreisen für die Belletristik niederschlägt und erläutert die konkrete Umsetzung des Vorhabens. Vorher wird die Aufstellung nach Interessenkreisen konzeptionell erarbeitet und die Methode der Gruppendiskussion im Kontext der Befragung von Nutzern in Bibliotheken erläutert.
  20. Sorge, S.: Semantische Digitale Bibliotheken : Welchen Mehrwert produzieren Bibliotheken als Gestalter innovativer, semantisch basierter Wissensräume? (2011) 0.00
    0.0017014545 = product of:
      0.03402909 = sum of:
        0.03402909 = weight(_text_:bibliothek in 217) [ClassicSimilarity], result of:
          0.03402909 = score(doc=217,freq=4.0), product of:
            0.0884117 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.021534784 = queryNorm
            0.38489348 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=217)
      0.05 = coord(1/20)
    
    Abstract
    Das Internet verändert die Art und Weise, wie Informationen gesucht und gefunden werden können. Die Autorin befasst sich in dieser Arbeit mit der Frage, ob semantische digitale Bibliotheken einen Mehrwert für die Benutzer, die Bibliothek und die Volkswirtschaft erzeugen können. Auf der Basis der Systemtheorie werden in der vorliegenden Arbeit die Wechselwirkungen zwischen Bibliothek, Benutzer und Volkswirtschaft beschrieben. Der Mensch steht im Mittelpunkt dieser Arbeit, da er als kritische Input-Variable die Systemdynamiken der unterschiedlichen Systemarten prägt. Zur Generierung von Mehrwertpotenzialen in vernetzten Systemen werden drei ausgewählte systemtheoretische Wirkdynamiken am Beispiel Vertrauen dargelegt: 1. Die Wirkung psychosozialer Prozesse als dynamischer emergenter Selbstorganisationsprozess 2. Der Mensch als Komponente synreferentieller Systeme 3. Interventionstechniken in komplexen Systemen

Languages

  • d 32
  • e 5
  • f 1
  • hu 1
  • More… Less…

Types