Энтропия в теории информации представляет собой меру неопределенности или хаоса в системе. В данном случае, мы вычисляем энтропию опыта, связанного с определением цвета шарика, случайно выбранного из мешочка. Для этого используем формулу для энтропии (H) в дискретной системе:
[ H = - \sum_{i=1}^{n} P_i \log_2 P_i ]
где (P_i) — вероятность события (i), а (n) — общее количество различных событий.
В нашей задаче события — это выбор шарика определенного цвета. У нас есть четыре вида шариков: белые, красные, синие и зеленые. Для вычисления вероятностей каждого цвета, сначала найдем общее количество шариков:
[ N = 35 + 25 + 15 + 45 = 120 ]
Теперь вычислим вероятности для каждого цвета:
- Вероятность вытянуть белый шарик (P(\text{белый})):
[ P(\text{белый}) = \frac{35}{120} = \frac{7}{24} ]
- Вероятность вытянуть красный шарик (P(\text{красный})):
[ P(\text{красный}) = \frac{25}{120} = \frac{5}{24} ]
- Вероятность вытянуть синий шарик (P(\text{синий})):
[ P(\text{синий}) = \frac{15}{120} = \frac{1}{8} ]
- Вероятность вытянуть зеленый шарик (P(\text{зеленый})):
[ P(\text{зеленый}) = \frac{45}{120} = \frac{3}{8} ]
Теперь подставим эти вероятности в формулу энтропии:
[ H = - \left( \frac{7}{24} \log_2 \frac{7}{24} + \frac{5}{24} \log_2 \frac{5}{24} + \frac{1}{8} \log_2 \frac{1}{8} + \frac{3}{8} \log_2 \frac{3}{8} \right) ]
Для упрощения вычислений используем логарифмы (вспомним, что логарифм от дробной вероятности всегда отрицателен, что делает общий вклад в энтропию положительным):
[
\begin{align}
\log_2 \frac{7}{24} & = \log_2 7 - \log_2 24 \
\log_2 7 & \approx 2.807 \
\log_2 24 & = \log_2 (2^3 \cdot 3) = 3 + \log_2 3 \approx 3 + 1.585 = 4.585 \
\log_2 \frac{7}{24} & \approx 2.807 - 4.585 = -1.778 \
\end{align}
]
[
\log_2 \frac{5}{24} \approx 2.322 - 4.585 = -2.263
]
[
\log_2 \frac{1}{8} = \log_2 1 - \log_2 8 = 0 - 3 = -3
]
[
\log_2 \frac{3}{8} \approx 1.585 - 3 = -1.415
]
Теперь подставим эти значения:
[
H \approx - \left( \frac{7}{24} \cdot (-1.778) + \frac{5}{24} \cdot (-2.263) + \frac{1}{8} \cdot (-3) + \frac{3}{8} \cdot (-1.415) \right)
]
[
H \approx - \left( -0.519 + -0.472 + -0.375 + -0.531 \right)
]
[
H \approx - \left( -1.897 \right) = 1.897
]
Таким образом, энтропия опыта, связанного с вытягиванием шарика из мешочка, составляет приблизительно (H \approx 1.897) бит.