![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Ось тут мракобіс верзе казна що про ентропію. По-перше, він погано засвоїв курс шкільної фізики, тому дає вульгарну інтерпретацію ентропії.
По-друге:
В теорії інформації системи моделюються передавачем, каналом та приймачем. Передавач продукує повідомлення, які надсилаються каналом. Канал якимось чином змінює ці повідомлення. Приймач намагається визначити, яке повідомлення було надіслано. В цьому контексті ентропі́я (точніше, ентропі́я Ше́ннона, англ. entropy, Shannon entropy) — це математичне сподівання (середнє значення) інформації, яка міститься в кожному повідомленні. «Повідомлення» може бути модельовано будь-яким потоком інформації.
У більш технічному сенсі, існують причини визначати інформацію як від'ємний логарифм розподілу ймовірності можливих подій або повідомлень. Кількість інформації кожної події формує випадкову величину, чиє математичне сподівання, або середнє значення, є ентропією Шеннона. Одиницями вимірювання ентропії є шеннони, нати та гартлі, в залежності від основи логарифму, яка використовується при їхньому визначенні, хоча шеннон зазвичай називають бітом.
Вікіпедія
По-третє, в математиці існує ентропія Рені, де традиційна ентропія є підмножиною ентропії Рені. До речі, ентропією Рені застосовують для опису мультифракталів. А іще ентропія є мірою різноманіття екосистеми у біологів.
За аналогією з екосистемами можна поміряти різноманіття економіки. Десь бачив цікаві мапи, на яких найбільш стійкі економіки мали найбільше галузеве різноманіття.
По-друге:
В теорії інформації системи моделюються передавачем, каналом та приймачем. Передавач продукує повідомлення, які надсилаються каналом. Канал якимось чином змінює ці повідомлення. Приймач намагається визначити, яке повідомлення було надіслано. В цьому контексті ентропі́я (точніше, ентропі́я Ше́ннона, англ. entropy, Shannon entropy) — це математичне сподівання (середнє значення) інформації, яка міститься в кожному повідомленні. «Повідомлення» може бути модельовано будь-яким потоком інформації.
У більш технічному сенсі, існують причини визначати інформацію як від'ємний логарифм розподілу ймовірності можливих подій або повідомлень. Кількість інформації кожної події формує випадкову величину, чиє математичне сподівання, або середнє значення, є ентропією Шеннона. Одиницями вимірювання ентропії є шеннони, нати та гартлі, в залежності від основи логарифму, яка використовується при їхньому визначенні, хоча шеннон зазвичай називають бітом.
Вікіпедія
По-третє, в математиці існує ентропія Рені, де традиційна ентропія є підмножиною ентропії Рені. До речі, ентропією Рені застосовують для опису мультифракталів. А іще ентропія є мірою різноманіття екосистеми у біологів.
За аналогією з екосистемами можна поміряти різноманіття економіки. Десь бачив цікаві мапи, на яких найбільш стійкі економіки мали найбільше галузеве різноманіття.