Чтобы ответить на этот вопрос, нужно использовать концепцию информационной энтропии и понятие битов информации из теории информации.
1. Теория информации и энтропия
В теории информации информация измеряется в битах. Количество информации, которое уменьшает неопределенность, можно выразить через энтропию.
Энтропия HH — это мера неопределенности или неопределенности системы (в контексте информации, это неопределенность исхода случайного события). Формула для энтропии выглядит следующим образом:
H(X)=−∑p(x)log2p(x)H(X) = -sum p(x) log_2 p(x)
где:
H(X)H(X) — энтропия случайной величины XX,
p(x)p(x) — вероятность наступления события xx,
log2log_2 — логарифм по основанию 2 (поскольку измеряем информацию в битах).
Информация (измеряемая в битах) об одном событии с вероятностью pp выражается как −log2p-log_2 p. Это значение показывает, сколько бит нужно для кодирования результата этого события.
2. Понимание фразы: «уменьшающее информационную неопределенность в 4 раза»
Когда говорится, что сообщение уменьшает информационную неопределенность в 4 раза, это подразумевает, что если изначально неопределенность была H1H_1, то после получения сообщения неопределенность уменьшилась в 4 раза и стала равной H2H_2.
Если H1H_1 — это начальная энтропия (неопределенность), то уменьшение в 4 раза означает, что после получения информации новая энтропия H2H_2 будет:
H2=H14H_2 = frac{H_1}{4}
Таким образом, новое сообщение уменьшает неопределенность в 4 раза. Что это означает в терминах количества информации? Давайте рассмотрим, как это связано с количеством бит.
3. Количество информации
Пусть изначально неопределенность была представлена энтропией H1H_1, и сообщение уменьшает ее в 4 раза. Количество информации, которое несет это сообщение, будет равно разнице между начальной и новой энтропией:
I=H1−H2=H1−H14=3H14I = H_1 — H_2 = H_1 — frac{H_1}{4} = frac{3H_1}{4}
Это количество информации измеряется в битах. То есть, сообщение содержит три четверти от исходной неопределенности в битах.
4. Пример
Чтобы проиллюстрировать на конкретном примере, представьте, что у вас есть система с двумя возможными исходами (например, подбрасывание монеты: орел или решка), с равной вероятностью:
p(орел)=0.5p(text{орел}) = 0.5,
p(решка)=0.5p(text{решка}) = 0.5.
В этом случае энтропия системы будет:
H1=−0.5log20.5−0.5log20.5=1 бит.H_1 = -0.5 log_2 0.5 — 0.5 log_2 0.5 = 1 text{ бит}.
Если сообщение уменьшает неопределенность в 4 раза, то новая энтропия будет:
H2=H14=14 бита.H_2 = frac{H_1}{4} = frac{1}{4} text{ бита}.
Количество информации, которое несет это сообщение, будет:
I=H1−H2=1−14=34 бита.I = H_1 — H_2 = 1 — frac{1}{4} = frac{3}{4} text{ бита}.
Таким образом, сообщение, которое уменьшает неопределенность в 4 раза, несет 0.75 бита информации.