(3.06)
Используя это выражение для сравнения информации о том, что некоторая точка находится в интервале (0, 1), с информацией о том, что она находится в интервале (
(3.07)
Определение, данное нами для количества информации, пригодно также в том случае, когда вместо переменной
(3.08)
и количество информации равно
(3.081)
Заметим, что если
, (3.082)
[c.122]
то
(3.083)
и
(3.084)
т. е. количество информации от независимых источников есть величина аддитивная.
Интересной задачей является определение информации, получаемой при фиксации одной или нескольких переменных в какой-либо задаче. Например, положим, что переменная
,
а переменная
Сколько мы приобретаем информации об
, (3.09)
где c1 и c2 — константы. Обе они исчезают в окончательной формуле.
Приращение информации об
[c.123]
(3.091)
Заметим, что выражение (3.091) положительно и не зависит от
Мы можем истолковать этот результат следующим образом. Будем рассматривать
Мы сказали, что количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия. Интересно отметить, что эта величина в среднем имеет свойства, которые мы приписываем энтропии.
Пусть
также есть плотность вероятности и
(3.10)
Это вытекает из того, что
(3.11)
Другими словами, перекрытие областей под
(3.12)
имеет наименьшее значение, когда на интервале (
Как и следовало ожидать, процессы, ведущие к потере информации, весьма сходны с процессами, ведущими к росту энтропии. Они состоят в слиянии областей вероятностей, первоначально различных. Например, если мы заменяем распределение некоторой переменной распределением функции от нее, принимающей одинаковые значения при разных значениях аргумента, или в случае функции нескольких переменных позволяем некоторым из них свободно пробегать их естественную область изменения, мы теряем информацию. Никакая операция над сообщением не может в среднем увеличить информацию. Здесь мы имеем точное применение второго закона термодинамики к технике связи. Обратно, уточнение в среднем неопределенной ситуации приводит, как мы видели, большей частью к увеличению информации и никогда — к ее потере.
Интересен случай, когда мы имеем распределение вероятностей с