В мешочке у меня лежат монеты разных номиналов⁚ 1‚ 2 и 5. У каждого номинала монеты имеют одинаковый размер и вес. В мешочке я обнаружил 86 монет номинала 1‚ 323 монеты номинала 2 и 409 монет номинала 5.
Представьте себе ситуацию⁚ я достаю из мешочка 3 монеты. И теперь мне нужно определить‚ сколько бит информации несет в себе сообщение о том‚ что все выбранные монеты оказались различных номиналов.
Для решения этой задачи нам следует использовать понятие энтропии. Энтропия ‒ это количество бит‚ требуемых для передачи одного символа информации.Вычислим вероятности выбора каждого номинала монеты. Всего в мешочке 818 монет (86 монет номинала 1 323 монеты номинала 2 409 монет номинала 5). Таким образом‚ вероятность выбора монеты номинала 1 равна 86/818‚ для монеты номинала 2 ‒ 323/818‚ а для монеты номинала 5 ‒ 409/818.Теперь‚ используя формулу для вычисления энтропии⁚
H -P1 * log2(P1) ─ P2 * log2(P2) ‒ P3 * log2(P3)‚
где P1‚ P2 и P3 ‒ вероятности выбора монеты номинала 1‚ 2 и 5 соответственно‚ а log2 ─ логарифм по основанию 2‚
подставим полученные значения и вычислим энтропию.H ‒ (86/818) * log2(86/818) ‒ (323/818) * log2(323/818) ─ (409/818) * log2(409/818).После выполнения вычислений я получаю‚ что энтропия этого сообщения равна примерно 1.447 битам.
Ответ⁚ 1.447 (округленно до целого числа). Количество бит информации‚ несущей сообщение о том‚ что все выбранные монеты оказались различных номиналов‚ составляет 1 бит.