belmondo3: (Default)
belmondo3 ([personal profile] belmondo3) wrote2018-04-09 04:05 pm

Ентропія

Ось тут мракобіс верзе казна що про ентропію. По-перше, він погано засвоїв курс шкільної фізики, тому дає вульгарну інтерпретацію ентропії.

По-друге:

В теорії інформації системи моделюються передавачем, каналом та приймачем. Передавач продукує повідомлення, які надсилаються каналом. Канал якимось чином змінює ці повідомлення. Приймач намагається визначити, яке повідомлення було надіслано. В цьому контексті ентропі́я (точніше, ентропі́я Ше́ннона, англ. entropy, Shannon entropy) — це математичне сподівання (середнє значення) інформації, яка міститься в кожному повідомленні. «Повідомлення» може бути модельовано будь-яким потоком інформації.

У більш технічному сенсі, існують причини визначати інформацію як від'ємний логарифм розподілу ймовірності можливих подій або повідомлень. Кількість інформації кожної події формує випадкову величину, чиє математичне сподівання, або середнє значення, є ентропією Шеннона. Одиницями вимірювання ентропії є шеннони, нати та гартлі, в залежності від основи логарифму, яка використовується при їхньому визначенні, хоча шеннон зазвичай називають бітом.

Вікіпедія


По-третє, в математиці існує ентропія Рені, де традиційна ентропія є підмножиною ентропії Рені. До речі, ентропією Рені застосовують для опису мультифракталів. А іще ентропія є мірою різноманіття екосистеми у біологів.

За аналогією з екосистемами можна поміряти різноманіття економіки. Десь бачив цікаві мапи, на яких найбільш стійкі економіки мали найбільше галузеве різноманіття.







Post a comment in response:

If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting

If you are unable to use this captcha for any reason, please contact us by email at support@dreamwidth.org