Информация, содержащаяся в сообщении о том, что на игральном кубике выпало число 1, можно оценить с помощью понятия информационной энтропии. В данном случае, так как на кубике всего 6 граней, вероятность выпадения каждого числа равна 1/6. Следовательно, информационная энтропия этого сообщения будет равна минус логарифму по основанию 2 этой вероятности:
H = -log2(1/6) = log2(6) ≈ 2.58 бит
Таким образом, сообщение о том, что на игральном кубике выпало число 1, содержит примерно 2.58 бит информации.