Для сравнения объема информации, содержащегося в письмах, можно воспользоваться формулой Шеннона для вычисления энтропии. Энтропия выражает количество информации, содержащейся в сообщении.
Для первого племени с 32-символьным алфавитом и сообщением из 80 символов энтропия будет равна:
H1 = 80 log2(32) = 80 5 = 400 бит
Для второго племени с 64-символьным алфавитом и сообщением из 70 символов энтропия будет равна:
H2 = 70 log2(64) = 70 6 = 420 бит
Таким образом, объем информации в письме второго племени, содержащем 70 символов, больше, чем объем информации в письме первого племени, содержащем 80 символов.