В теории информации энтропия — это мера неопределенности ситуации. Для интуитивного восприятия энтропии надо прежде всего понимать, что энтропия есть свойство того, как мы систему рассматриваем. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, которые являются свойствами самой системы. Одна и та же система может быть размытой и запутанной, а может быть простой и ясной. Все дело во взгляде!
Энтропия — это мера известной о системе информации.
Читать:
Энтропия. Пекелис В. Д. «Маленькая энциклопедия о большой кибернетике. Кибернетика от А до Я», М.: Детская литература, 1973