belmondo3: (Default)
[personal profile] belmondo3
Ось тут мракобіс верзе казна що про ентропію. По-перше, він погано засвоїв курс шкільної фізики, тому дає вульгарну інтерпретацію ентропії.

По-друге:

В теорії інформації системи моделюються передавачем, каналом та приймачем. Передавач продукує повідомлення, які надсилаються каналом. Канал якимось чином змінює ці повідомлення. Приймач намагається визначити, яке повідомлення було надіслано. В цьому контексті ентропі́я (точніше, ентропі́я Ше́ннона, англ. entropy, Shannon entropy) — це математичне сподівання (середнє значення) інформації, яка міститься в кожному повідомленні. «Повідомлення» може бути модельовано будь-яким потоком інформації.

У більш технічному сенсі, існують причини визначати інформацію як від'ємний логарифм розподілу ймовірності можливих подій або повідомлень. Кількість інформації кожної події формує випадкову величину, чиє математичне сподівання, або середнє значення, є ентропією Шеннона. Одиницями вимірювання ентропії є шеннони, нати та гартлі, в залежності від основи логарифму, яка використовується при їхньому визначенні, хоча шеннон зазвичай називають бітом.

Вікіпедія


По-третє, в математиці існує ентропія Рені, де традиційна ентропія є підмножиною ентропії Рені. До речі, ентропією Рені застосовують для опису мультифракталів. А іще ентропія є мірою різноманіття екосистеми у біологів.

За аналогією з екосистемами можна поміряти різноманіття економіки. Десь бачив цікаві мапи, на яких найбільш стійкі економіки мали найбільше галузеве різноманіття.






Profile

belmondo3: (Default)
belmondo3

June 2022

S M T W T F S
   12 34
567891011
12131415161718
19202122232425
2627282930  

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 1st, 2025 07:41 am
Powered by Dreamwidth Studios