Лекции по информатике

Автор работы: Пользователь скрыл имя, 30 Сентября 2009 в 17:27, Не определен

Описание работы

Лекции по информатике

Файлы: 7 файлов

Лекция №3.doc

— 79.00 Кб (Скачать файл)

МЕТОД_NEW.DOC

— 1.09 Мб (Скачать файл)

Содержание лекции.doc

— 22.00 Кб (Просмотреть файл, Скачать файл)

Слайды к Л№3 Количество и качество информации.doc

— 79.00 Кб (Скачать файл)

Cлайды к Л4.doc

— 185.50 Кб (Скачать файл)

Условная  энтропия и взаимная информация. 

 Пусть

и
- случайные величины с множеством возможных значений
 
 

Условной  энтропией величины при наблюдении величины называется

 

Справедливы соотношения:

 

 

Взаимной  информацией  величин и называется

 

Справедливы следующие  соотношения:

 

 

 

 
 

Если  и независимы, то =0.

 

Пример 1.

Дана матрица

,
.

Определить:

Решение.

По формуле  полной вероятности имеем:

 

Следовательно,

 

По теореме  умножения 

 

 

 

Следовательно,

Аналогично 

 
 
 
 
 
 

Количество  информации и избыточность 

   Количество  информации  при наблюдении случайной величины

 с распределением вероятностей  задается формулой Шеннона: 

 

   Единицей  измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения. 

   При равномерном распределении  количество информации задается формулой Хартли: 

   

 

   Справедливы следующие соотношения:

   

   если  и - независимы 

   Избыточностью называется

   

   Пусть 
 

    поэтому 
 
 
 
 
 

     
 
 

   Аддитивность  информационной меры

 

   Рассмотрим  два источника информации: 

   

При одновременном  наблюдении

 
 
 
 
 
 
 

     
 

Мера  Хартли:                      

 
 

Мера  Шеннона

 

Пусть А и  В независимы, тогда    

Лекция 4(Информационная мера Шеннона).doc

— 431.00 Кб (Просмотреть файл, Скачать файл)

Содержание.doc

— 20.00 Кб (Просмотреть файл, Скачать файл)

Информация о работе Лекции по информатике