Чтобы определить количество информации, содержащееся в сообщении о том, что достали красное яблоко из мешка, необходимо использовать понятие информационной энтропии, введенное Клодом Шенноном.
Информация измеряется в битах и определяется как логарифм по основанию 2 от вероятности события. Формула для вычисления количества информации ( I ) в битах выглядит следующим образом:
[ I = -\log_2(p) ]
где ( p ) – вероятность события.
В данном случае у нас есть мешок, в котором лежат 64 красных яблока. Предположим, что мешок не содержит яблок другого цвета. Таким образом, вероятность того, что достанем красное яблоко, равна 1 (или 100%).
Подставим значение вероятности в формулу:
[ I = -\log_2(1) ]
Логарифм по основанию 2 от 1 равен 0:
[ I = -\log_2(1) = 0 ]
Таким образом, количество информации, содержащееся в сообщении о том, что достали красное яблоко из мешка с 64 красными яблоками, равно 0 битам. Это объясняется тем, что событие является достоверным и не несет никакой новой информации – мы и так знаем, что любое яблоко, которое достанем из мешка, будет красным.
Если бы в мешке были яблоки разного цвета, вероятность достать красное яблоко была бы меньше 1, и тогда сообщение о том, что достали красное яблоко, несло бы определенное количество информации, которое можно было бы вычислить по приведенной формуле.