Взаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как
Содержание |
В частности, для независимых случайных величин взаимная информация равна нулю:
В случае, когда одна случайная величина (например, ) является детерминированной функцией другой случайной величины (), взаимная информация равна энтропии:
Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
Безусловная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьй случайной величины:
Это заготовка статьи по математике. Вы можете помочь проекту, исправив и дополнив её. |
Взаимная информация по вопросам выявления и расследования преступлений, взаимная информация в теории информации, взаимная информация дискретных сообщений, взаимная информация для канала передачи дискретных сообщений.
Казинец, Исай Пинхусович, Сезон 2003 Евросерии Формулы-3, Концерт № 4 для фортепиано с оркестром (Бетховен), Пуэрто-Мадеро, Стратегия Фабия.