На этом шаге мы рассмотрим понятие условной энтропии.
Найдем энтропию сложного опыта
в том
случае, если опыты не являются независимыми, т.е. если на исход
оказывает
влияние результат опыта
.
Например, если в ящике всего два разноцветных шара и
состоит в
извлечении первого, а
– второго
из них, то
полностью
снимает неопределенность сложного опыта
, т.е.
оказывается H(
)
= H(
), а не
сумме энтропии, как следует из (1.5).
Связь между
на
могут
оказывать влияние на исходы из
, т.е.
некоторые пары событий Ai
Bj не являются независимыми. Но тогда в
(1.6)
p (Ai
Bj) следует заменять не произведением вероятностей, а, согласно:
– вероятность наступления исхода Bj при условии, что в первом опыте имел место исход Ai. Тогда:
При подстановке в (1.6) получаем:
В первом слагаемом индекс j имеется только у B; изменив порядок суммирования, получим члены вида:
Однако,
поскольку
образует
достоверное событие (какой-либо из исходов опыта
все равно
реализуется). Следовательно, первое слагаемое оказывается равным:
Во втором слагаемом члены вида
(1.8)
имеют смысл энтропии опыта при
условии, что в опыте
реализовался
исход Ai – будем называть ее условной энтропией. Если
ввести данное понятие и использовать его обозначение, то второе слагаемое будет иметь вид:
(1.9)
где есть
средняя условная энтропия опыта
при
условии выполнении опыта
.
Окончательно получаем для энтропии сложного опыта:
(1.10)
Полученное выражение представляет
собой общее правило нахождения энтропии сложного опыта. Совершенно очевидно,
что выражение (1.5) является частным
случаем (1.10) при условии
независимости опытов и
.
Относительно условной энтропии можно высказать следующие утверждения:
В этом случае
H (
) = H
(
).
Приведенные утверждения можно объединить одним неравенством:
(1.11)
т.е. условная энтропия не превосходит безусловную.
(1.12)
причем равенство реализуется только в том случае, если опыты
и
независимы.
Будем считать опытом извлечение
первого шара. Он имеет два исхода: A1 – вынут белый шар; его
вероятность p(A1) = 2/6 = 1/3; исход A2 – вынут черный
шар; его вероятность p(A2)=1 – p(A1) = 2/3. Эти данные
позволяют с помощью (1.4) сразу
найти H(
):
H()= – p(A1)log2 p(A1)
– p(A2)log2 p(A2) = –1/3 log21/3 –
2/3 log22/3 = 0,918 бит
Опыт –
извлечение второго шара также имеет два исхода: B1 – вынут белый
шар; B2 – вынут черный шар, однако их вероятности будут зависеть от
того, каким был исход опыта
. В
частности:
Следовательно, энтропия, связанная со вторым опытом, является условной и, согласно (1.8) и (1.9), равна:
Наконец, из (1.10):
H(
) = 0,918
+ 0,888 = 1,806 бит.
Последовательность
действий достаточно очевидна: сравниваем вес двух любых тел, определяем из них
более тяжелое, затем с ним сравниваем вес третьего тела и выбираем наибольший
из них. Поскольку внешне тела неразличимы, выбор номеров тел при взвешивании
будет случаен, однако общий результат от этого выбора не зависит.
Пусть опыт состоит в
сравнении веса двух тел, например, 1-го и 2-го. Этот опыт, очевидно, может
иметь два исхода: A1 – x1 > x2;
его вероятность p(A1) = 1/2; исход
A2 – x1 < x2;
также его вероятность p(A2)=1/2.
H() = –1/2 log21/2 – 1/2 log21/2 =
1 бит
Опыт –
сравнение весов тела, выбранного в опыте
, и 3-го
– имеет четыре исхода:
B1 – x1> x3, B2
– x1< x3, B3 – x2> x3,
B4 – x2< x3; вероятности исходов зависят от
реализовавшегося исхода
– для
удобства представим их в виде таблицы:
B1 | B2 | B3 | B4 | |
1/2 | 1/2 | 0 | 0 | A1 |
0 | 0 | 1/2 | 1/2 | A2 |
Вновь, воспользовавшись формулами (1.8) и (1.9), находим:
Следовательно, энтропия сложного опыта, т.е. всей процедуры испытаний:
На следующем шаге мы рассмотрим связь энтропии и информации.