Для определения количества информации, содержащегося в сообщении, закодированном буквами из 32-символьного алфавита, можно воспользоваться формулой, основанной на понятии энтропии. Количество информации измеряется в битах, и для алфавита с равновероятными символами используется следующая формула:
[ I = n \times \log_2(N) ]
где:
- ( I ) — количество информации в битах,
- ( n ) — количество символов в сообщении,
- ( N ) — мощность алфавита (количество символов в алфавите).
В данном случае:
- ( n = 20 ) (сообщение содержит 20 символов),
- ( N = 32 ) (алфавит состоит из 32 символов).
Подставим значения в формулу:
[ I = 20 \times \log_2(32) ]
Теперь найдём (\log_2(32)). Поскольку 32 — это (2^5), то (\log_2(32) = 5).
Таким образом, количество информации в сообщении:
[ I = 20 \times 5 = 100 \text{ бит} ]
Итак, сообщение из 20 символов, записанное буквами 32-символьного алфавита, несёт 100 бит информации.