На этом шаге мы рассмотрим понятие условной энтропии.
Найдем энтропию сложного опыта в том случае, если опыты не являются независимыми, т.е. если на исход оказывает влияние результат опыта . Например, если в ящике всего два разноцветных шара и состоит в извлечении первого, а – второго из них, то полностью снимает неопределенность сложного опыта , т.е. оказывается H( ) = H(), а не сумме энтропии, как следует из (1.5).
Связь между на могут оказывать влияние на исходы из , т.е. некоторые пары событий Ai Bj не являются независимыми. Но тогда в (1.6) p (Ai Bj) следует заменять не произведением вероятностей, а, согласно:
– вероятность наступления исхода Bj при условии, что в первом опыте имел место исход Ai. Тогда:
При подстановке в (1.6) получаем:
В первом слагаемом индекс j имеется только у B; изменив порядок суммирования, получим члены вида:
Однако,
поскольку
образует достоверное событие (какой-либо из исходов опыта все равно реализуется). Следовательно, первое слагаемое оказывается равным:
Во втором слагаемом члены вида
(1.8)
имеют смысл энтропии опыта при условии, что в опыте реализовался исход Ai – будем называть ее условной энтропией. Если ввести данное понятие и использовать его обозначение, то второе слагаемое будет иметь вид:
(1.9)
где есть средняя условная энтропия опыта при условии выполнении опыта . Окончательно получаем для энтропии сложного опыта:
(1.10)
Полученное выражение представляет собой общее правило нахождения энтропии сложного опыта. Совершенно очевидно, что выражение (1.5) является частным случаем (1.10) при условии независимости опытов и .
Относительно условной энтропии можно высказать следующие утверждения:
В этом случае H ( ) = H ( ).
Приведенные утверждения можно объединить одним неравенством:
(1.11) т.е. условная энтропия не превосходит безусловную.
(1.12)
причем равенство реализуется только в том случае, если опыты и независимы.
Будем считать опытом извлечение первого шара. Он имеет два исхода: A1 – вынут белый шар; его вероятность p(A1) = 2/6 = 1/3; исход A2 – вынут черный шар; его вероятность p(A2)=1 – p(A1) = 2/3. Эти данные позволяют с помощью (1.4) сразу найти H():
H()= – p(A1)log2 p(A1) – p(A2)log2 p(A2) = –1/3 log21/3 – 2/3 log22/3 = 0,918 бит
Опыт – извлечение второго шара также имеет два исхода: B1 – вынут белый шар; B2 – вынут черный шар, однако их вероятности будут зависеть от того, каким был исход опыта . В частности:
Следовательно, энтропия, связанная со вторым опытом, является условной и, согласно (1.8) и (1.9), равна:
Наконец, из (1.10): H( ) = 0,918 + 0,888 = 1,806 бит.
Последовательность действий достаточно очевидна: сравниваем вес двух любых тел, определяем из них более тяжелое, затем с ним сравниваем вес третьего тела и выбираем наибольший из них. Поскольку внешне тела неразличимы, выбор номеров тел при взвешивании будет случаен, однако общий результат от этого выбора не зависит. Пусть опыт состоит в сравнении веса двух тел, например, 1-го и 2-го. Этот опыт, очевидно, может иметь два исхода: A1 – x1 > x2; его вероятность p(A1) = 1/2; исход A2 – x1 < x2; также его вероятность p(A2)=1/2.
H() = –1/2 log21/2 – 1/2 log21/2 = 1 бит
Опыт – сравнение весов тела, выбранного в опыте , и 3-го – имеет четыре исхода: B1 – x1> x3, B2 – x1< x3, B3 – x2> x3, B4 – x2< x3; вероятности исходов зависят от реализовавшегося исхода – для удобства представим их в виде таблицы:
B1 | B2 | B3 | B4 | |
1/2 | 1/2 | 0 | 0 | A1 |
0 | 0 | 1/2 | 1/2 | A2 |
Вновь, воспользовавшись формулами (1.8) и (1.9), находим:
Следовательно, энтропия сложного опыта, т.е. всей процедуры испытаний:
На следующем шаге мы рассмотрим связь энтропии и информации.