Энтропия - это информация
В теории информации энтропия — это мера неопределенности ситуации. Для интуитивного восприятия энтропии надо прежде всего понимать, что энтропия есть свойство того, как мы систему рассматриваем. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, которые являются свойствами самой системы. Одна и та же система может быть размытой и запутанной, а может быть простой и ясной. Все дело во взгляде!

Энтропия — это мера известной о системе информации.

Читать:
Энтропия. Пекелис В. Д. «Маленькая энциклопедия о большой кибернетике. Кибернетика от А до Я», М.: Детская литература, 1973
Цикл книг «Фракталы и Хаос»