Лекции по информатике

Автор работы: Пользователь скрыл имя, 30 Сентября 2009 в 17:27, Не определен

Описание работы

Лекции по информатике

Файлы: 7 файлов

Лекция №3.doc

— 79.00 Кб (Скачать файл)

МЕТОД_NEW.DOC

— 1.09 Мб (Скачать файл)

Содержание лекции.doc

— 22.00 Кб (Просмотреть файл, Скачать файл)

Слайды к Л№3 Количество и качество информации.doc

— 79.00 Кб (Скачать файл)

Cлайды к Л4.doc

— 185.50 Кб (Просмотреть файл, Скачать файл)

Лекция 4(Информационная мера Шеннона).doc

— 431.00 Кб (Скачать файл)

Лекция  №4

Тема: ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА. 

      1. ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.

      1.1.  Количество информации  и избыточность.

      Дискретные  системы связи - системы, в которых  как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов. 

      Пусть и - случайные величины с множествами возможных значений

      Количество  информации при наблюдении случайной величины с распределением вероятностей задается формулой Шеннона:

      Единицей  измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.

      При равномерном распределении  количество информации задается формулой Хартли:

.

      Справедливы следующие соотношения:

      1)

      2)

      3) если и - независимы.

      Избыточностью называется

      Рассмотрим  примеры.

      Пример 1. Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами:

 

      Определить, какой источник дает большее количество информации, если

1) 2)

      Решение. Для первого источника при равновероятном распределении воспользуемся формулой Хартли. Для и имеем

      Следовательно, источник с тремя символами дает большее количество информации. Для второго случая воспользуемся формулой Шеннона:

 с учетом условия задачи  имеем 

С другой стороны,

Поскольку

 
то
 

      Пример 2. Источник сообщений выдает символы из алфавита с вероятностями Найти количество информации и избыточность.

      Решение. По формуле Шеннона

(бит).

По определению  избыточности  

 

1.2. Энтропия непрерывных  сообщений

      Непрерывные системы передачи информации - системы, в которых как реализации сообщения, так и реализации сигнала на конечном временном интервале представляют собой некоторые непрерывные функции времени.

      Пусть - реализации непрерывного сообщения на входе какого-либо блока схемы связи, - реализация выходного сообщения (сигнала), - плотность вероятности ансамбля входных сообщений, - плотность вероятности ансамбля выходных сообщений

      Формулы для энтропии непрерывных сообщений получаются путем обобщения формул для энтропии дискретных сообщений. Если - интервал квантования (точность измерения), то при достаточно малом энтропия непрерывных сообщений

где По аналогии

      Пример 1. По линии связи передаются непрерывные амплитудно-модулированные сигналы распределенные по нормальному закону с математическим ожиданием и дисперсией

      Определить  энтропию сигнала при точности его измерения

      Решение. По условию плотность вероятности сигнала

      Подставляя  числовые значения, получаем

 дв. ед. 
 

2. УСЛОВНАЯ ЭНТРОПИЯ  И ВЗАИМНАЯ ИНФОРМАЦИЯ 

      2.1. Дисктретные системы передачи информации.

      Условной  энтропией величины при наблюдении величины называется

      Справедливы соотношения:

 

      Взаимной информацией величин и называется

      Справедливы следующие соотношения:

 

 

      Если  и независимы, то =0.

      При расчетах условной энтропии и взаимной информации удобно пользоваться следующими соотношениями теории вероятностей:

      1) теорема умножения вероятностей  ;

      2) формула полной вероятности 

      3) формула Байеса 

      Рассмотрим пример.

      Пример 1. Дана матрица

,
.

      Определить:

      Решение. По формуле полной вероятности имеем:

 

      Следовательно,

 

      По  теореме умножения 

 

 

 

      Следовательно,

      Аналогично

 
 
 

2.2. Непрерывные системы передачи информации.

      Пусть - реализации непрерывного сообщения на входе какого-либо блока схемы связи, - реализация выходного сообщения (сигнала), - одномерная плотность вероятности ансамбля входных сообщений, - одномерная плотность вероятности ансамбля выходных сообщений, - совместная плотность вероятности, - условная плотность вероятности

при известном  Тогда для количества информации справедливы следующие соотношения:

 

,

 

Здесь - взаимная информация между каким-либо значением входного и значением выходного сообщений, - средние значения условной информации, - полная средняя взаимная информация.

      Условная энтропия определяется по формуле: 

 

Когда и статистически связаны между собой, то

При независимых  и

Полная средняя  взаимная информация определяется формулой:

      Рассмотрим  пример.

      Пример 1. На вход приемного устройства воздействует колебание где сигнал и помеха - независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно и

      Определить: 1) количество взаимной информации которое содержится в каком-либо значении принятого колебания о значении сигнала 2) полную среднюю взаимную информацию

      Решение. По условию задачи представляет собой сумму независимых колебаний и которые имеют нормальные плотности вероятности. Поэтому

 

      1. Количество информации определяется  по формуле:

 

      2. Полная средняя взаимная информация:

где - знак усреднения по множеству.

      Таким образом,

 дв. ед.

Содержание.doc

— 20.00 Кб (Просмотреть файл, Скачать файл)

Информация о работе Лекции по информатике