Лекции по информатике
Автор работы: Пользователь скрыл имя, 30 Сентября 2009 в 17:27
Описание работы
Лекции по информатике
Файлы: 7 файлов
Лекция №3.doc
— 79.00 Кб (Скачать файл)МЕТОД_NEW.DOC
— 1.09 Мб (Скачать файл)Содержание лекции.doc
— 22.00 Кб (Просмотреть файл, Скачать файл)Слайды к Л№3 Количество и качество информации.doc
— 79.00 Кб (Скачать файл)Cлайды к Л4.doc
— 185.50 Кб (Скачать файл)Условная
энтропия и взаимная
информация.
Пусть
Условной энтропией величины при наблюдении величины называется
Справедливы соотношения:
Взаимной информацией величин и называется
Справедливы следующие соотношения:
Если и независимы, то =0.
Пример 1.
Дана матрица
Определить:
Решение.
По формуле полной вероятности имеем:
Следовательно,
По теореме умножения
Следовательно,
Аналогично
Количество
информации и избыточность
Количество информации при наблюдении случайной величины
с распределением
Единицей
измерения количества информации является
бит, который представляет собой количество
информации, получаемое при наблюдении
случайной величины, имеющей два равновероятных
значения.
При
равномерном распределении
количество информации задается формулой
Хартли:
Справедливы следующие соотношения:
если
и
- независимы
Избыточностью называется
Пусть
поэтому
Аддитивность информационной меры
Рассмотрим
два источника информации:
При одновременном наблюдении
Мера Хартли:
Мера Шеннона
Пусть А и
В независимы, тогда