Отличный вопрос! Давай подробно разберёмся, как измеряется объём информации в битах и что значит «уменьшение неопределённости знаний в 4 раза».
Основные понятия
1. Информация и неопределённость (энтропия)
В теории информации количество информации, которое содержит сообщение, связано с тем, насколько оно уменьшает неопределённость или энтропию системы.
Энтропия HH — это мера неопределённости или «случайности» исхода. Чем выше энтропия, тем больше неопределённость.
Когда приходит сообщение, которое уточняет или уменьшает неопределённость, мы говорим, что оно содержит некоторое количество информации.
2. Измерение информации в битах
Информация в теории информации обычно измеряется в битах.
1 бит — количество информации, необходимое для выбора между двумя равновероятными исходами (например, «да» или «нет»).
Бит — это логарифм по основанию 2 от количества возможных состояний.
Что значит «уменьшить неопределённость в 4 раза»?
Допустим, у нас есть начальная неопределённость H0H_0. Сообщение уменьшает её до H1H_1, где
H1=H04H_1 = frac{H_0}{4}
То есть новая неопределённость в 4 раза меньше исходной.
Как связать уменьшение неопределённости и количество информации?
Количество информации II, которое содержит сообщение, определяется как разница энтропий:
I=H0−H1I = H_0 — H_1
Мы знаем, что
H1=H04H_1 = frac{H_0}{4}
Тогда
I=H0−H04=3H04I = H_0 — frac{H_0}{4} = frac{3H_0}{4}
Это значит, что сообщение содержит информацию, равную 75% от исходной неопределённости H0H_0.
Как выразить H0H_0 через количество вариантов?
Для конкретики допустим, что исходная неопределённость H0H_0 связана с количеством равновероятных исходов NN.
Энтропия для равновероятных исходов:
H0=log2N(бит)H_0 = log_2 N quad text{(бит)}
Если после сообщения количество неопределённых вариантов уменьшается в 4 раза, то количество возможных исходов стало:
N1=N4N_1 = frac{N}{4}
Тогда новая энтропия:
H1=log2(N4)=log2N−log24=H0−2H_1 = log_2 left(frac{N}{4}right) = log_2 N — log_2 4 = H_0 — 2
Теперь количество информации II:
I=H0−H1=H0−(H0−2)=2 битаI = H_0 — H_1 = H_0 — (H_0 — 2) = 2 text{ бита}
Итог
Уменьшение неопределённости в 4 раза соответствует уменьшению количества возможных исходов в 4 раза.
Это уменьшение в логарифмической шкале — это уменьшение энтропии на log24=2log_2 4 = 2 бита.
Значит, сообщение содержит 2 бита информации.
Пример для наглядности
Представим, что у нас есть 16 равновероятных вариантов (например, 16 карточек).
Исходная энтропия:
H0=log216=4 битаH_0 = log_2 16 = 4 text{ бита}
Если сообщение уменьшает количество вариантов в 4 раза:
N1=164=4N_1 = frac{16}{4} = 4
Новая энтропия:
H1=log24=2 битаH_1 = log_2 4 = 2 text{ бита}
Информация, содержащаяся в сообщении:
I=4−2=2 битаI = 4 — 2 = 2 text{ бита}
То есть сообщение дало нам 2 бита информации.
Заключение
Если сообщение уменьшает неопределённость знаний в 4 раза, оно содержит ровно 2 бита информации.
Это связано с тем, что информация измеряется как логарифм отношения количества вариантов до и после сообщения:
I=log2NN1=log24=2 битаI = log_2 frac{N}{N_1} = log_2 4 = 2 text{ бита}
Если хочешь, могу помочь разобрать примеры с другими уменьшениями неопределённости или объяснить подробнее, как считать энтропию для более сложных распределений.