Search (1 results, page 1 of 1)

  • × author_ss:"Lyre, H."
  • × theme_ss:"Information"
  1. Lyre, H.: Information in den Naturwissenschaften (2004) 0.01
    0.010712966 = product of:
      0.021425933 = sum of:
        0.021425933 = product of:
          0.042851865 = sum of:
            0.042851865 = weight(_text_:i in 2964) [ClassicSimilarity], result of:
              0.042851865 = score(doc=2964,freq=2.0), product of:
                0.17138503 = queryWeight, product of:
                  3.7717297 = idf(docFreq=2765, maxDocs=44218)
                  0.045439374 = queryNorm
                0.25003272 = fieldWeight in 2964, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7717297 = idf(docFreq=2765, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2964)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Begriff der Information ist bis heute kein eigentlicher Fachterminus der Naturwissenschaften, findet aber dennoch Eingang und zunehmende Verwendung vor allem in Physik, Biologie und den kognitiven Neurowissenschaften. Dabei divergieren die jeweiligen spezifischen Verwendungsweisen des Informationsbegriffs in den verschiedenen Naturwissenschaften und auch der Mathematik zum Teil erheblich und sind in aller Regel nicht mit einem Alltagsverständnis von Information als Nachricht oder Wissen gleichzusetzen. Statt dessen stützt man sich vorrangig auf die Formalisierung von syntaktischer Information im Rahmen der Shannonschen Informationstheorie, also im Kern auf die von Hartley 1928 eingeführte Definition I = - In p, die den Informationsgehalt eines Zeichens daran koppelt, wie unwahrscheinlich das Zeichen in seinem Auftreten ist. Die Shannonsche Theorie erlaubt eine differenzierte mathematische Handhabung von Kanalkapazitäten, Redundanz- und Codierungsformen, die als Grundlage beinahe sämtlicher Verwendungen von Information in den Naturwissenschaften dient.