Binarna entropija, također poznata kao Šenonova entropija, koncept je u teoriji informacija koji mjeri nesigurnost ili slučajnost binarne slučajne varijable s dva ishoda. Razlikuje se od klasične entropije po tome što se posebno odnosi na binarne varijable, dok se klasična entropija može primijeniti na varijable s bilo kojim brojem ishoda.
Da bismo razumjeli binarnu entropiju, prvo moramo razumjeti koncept same entropije. Entropija je mjera prosječne količine informacija ili nesigurnosti sadržane u slučajnoj varijabli. Kvantifikuje koliko su nepredvidivi ishodi slučajne varijable. Drugim riječima, govori nam koliko "iznenađenja" možemo očekivati kada posmatramo ishode slučajne varijable.
U slučaju binarne slučajne varijable sa dva ishoda, označimo ove ishode sa 0 i 1. Binarna entropija ove varijable, označena kao H(X), izračunava se pomoću formule:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
gde su p(0) i p(1) verovatnoće posmatranja ishoda 0 i 1, respektivno. Logaritam se uzima u bazu 2 kako bi se osiguralo da se rezultirajuća vrijednost entropije mjeri u bitovima.
Da bismo izračunali binarnu entropiju, moramo odrediti vjerovatnoće dva ishoda. Ako su vjerovatnoće jednake, tj. p(0) = p(1) = 0.5, onda je binarna entropija maksimizirana, što ukazuje na maksimalnu nesigurnost. To je zato što su oba ishoda podjednako vjerovatna i ne možemo predvidjeti koji će se dogoditi. U ovom slučaju, binarna entropija je H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 bit.
S druge strane, ako je jedan ishod vjerovatniji od drugog, binarna entropija se smanjuje, što ukazuje na manju neizvjesnost. Na primjer, ako je p(0) = 0.8 i p(1) = 0.2, binarna entropija je H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 bita. To znači da nam je, u prosjeku, potrebno manje od jednog bita informacije da bismo predstavili rezultate ove binarne slučajne varijable.
Važno je napomenuti da je binarna entropija uvijek nenegativna, što znači da je veća ili jednaka nuli. Maksimizira se kada su vjerovatnoće dva ishoda jednake, a minimizira se kada jedan ishod ima vjerovatnoću 1, a drugi 0.
Binarna entropija mjeri neizvjesnost ili slučajnost binarne slučajne varijable s dva ishoda. Izračunava se pomoću formule -p(0) * log2(p(0)) – p(1) * log2(p(1)), gdje su p(0) i p(1) vjerovatnoće dva ishoda . Rezultirajuća vrijednost entropije se mjeri u bitovima, pri čemu više vrijednosti ukazuju na veću nesigurnost, a niže vrijednosti na manju nesigurnost.
Ostala nedavna pitanja i odgovori u vezi Klasična entropija:
- Kako razumijevanje entropije doprinosi dizajnu i evaluaciji robusnih kriptografskih algoritama u području sajber sigurnosti?
- Koja je maksimalna vrijednost entropije i kada se ona postiže?
- Pod kojim uslovima entropija slučajne varijable nestaje i šta to implicira o promenljivoj?
- Koja su matematička svojstva entropije i zašto je nenegativna?
- Kako se mijenja entropija slučajne varijable kada je vjerovatnoća ravnomjerno raspoređena između ishoda u odnosu na slučaj kada je pristrasna prema jednom ishodu?
- Kakav je odnos između očekivane dužine kodnih riječi i entropije slučajne varijable u kodiranju promjenjive dužine?
- Objasnite kako se koncept klasične entropije koristi u shemama kodiranja varijabilne dužine za efikasno kodiranje informacija.
- Koja su svojstva klasične entropije i kako se ona odnosi na vjerovatnoću ishoda?
- Kako klasična entropija mjeri nesigurnost ili slučajnost u datom sistemu?