Для определения неопределённости при выборе наугад одного карандаша из коробки, можно воспользоваться понятием энтропии в теории информации. Энтропия измеряет степень неопределённости или случайности в системе.
В данной задаче у нас есть коробка с 3 красными и 7 синими карандашами, всего 10 карандашей. Энтропия (H(X)) для случайной величины (X), которая принимает значения (x_i) с вероятностями (p_i), вычисляется по формуле Шеннона:
[ H(X) = - \sum_{i=1}^{n} p(x_i) \log_2 p(x_i) ]
Здесь (p(x_i)) — вероятность выбора карандаша определённого цвета.
Вероятность выбрать красный карандаш (p(\text{красный})):
[ p(\text{красный}) = \frac{3}{10} = 0.3 ]
Вероятность выбрать синий карандаш (p(\text{синий})):
[ p(\text{синий}) = \frac{7}{10} = 0.7 ]
Подставляем эти значения в формулу энтропии:
[ H(X) = - \left( p(\text{красный}) \log_2 p(\text{красный}) + p(\text{синий}) \log_2 p(\text{синий}) \right) ]
[ H(X) = - \left( 0.3 \log_2 0.3 + 0.7 \log_2 0.7 \right) ]
Теперь вычислим логарифмы:
[ \log_2 0.3 \approx -1.737 ]
[ \log_2 0.7 \approx -0.515 ]
Подставляем эти значения:
[ H(X) = - \left( 0.3 \cdot (-1.737) + 0.7 \cdot (-0.515) \right) ]
[ H(X) = - \left( -0.5211 - 0.3605 \right) ]
[ H(X) = 0.5211 + 0.3605 ]
[ H(X) = 0.8816 ]
Таким образом, энтропия, или неопределённость при выборе наугад одного карандаша из коробки, равна приблизительно 0.8816 бит.