Контрольная работа по "Основам теории информации"

Автор работы: Пользователь скрыл имя, 22 Января 2012 в 23:37, контрольная работа

Описание работы

Определить энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения вероятностей которого приведен в табл. 1.

Содержание работы

Задача №1………………………………………………………………………………………………………………стр.3
Задача №2………………………………………………………………………………………………………………стр.6
Задача №3………………………………………………………………………………………………………………стр.9
Задача №4………………………………………………………………………………………………………………стр.13
Задача №5………………………………………………………………………………………………………………стр.17
Задача №6………………………………………………………………………………………………………………стр.22

Файлы: 1 файл

теория информации(Моё).docx

— 145.77 Кб (Скачать файл)

Государственное образовательное учреждение высшего  профессионального образования

"Балтийский  институт экономики и финансов (БИЭФ)" 
 
 

Кафедра прикладной информатики 

Контрольная работа

По дисциплине ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ 
 

                                                                                                        Шиндяпин Сергей Викторович

                                                                                        Группа/курс  2918/4

                                                                   Вариант 6

                                                                                                          Дата сдачи _______________

                                                                                                          Дата проверки ____________                                                                                     

                                                                                             Профессор Карлов А.М. 
 
 
 
 
 
 
 

г. Калининград

2011 г. 

План 

  1. Задача  №1………………………………………………………………………………………………………………стр.3
  2. Задача №2………………………………………………………………………………………………………………стр.6
  3. Задача №3………………………………………………………………………………………………………………стр.9
  4. Задача №4………………………………………………………………………………………………………………стр.13
  5. Задача №5………………………………………………………………………………………………………………стр.17
  6. Задача №6………………………………………………………………………………………………………………стр.22
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
---

     Задача 1. Энтропия некоррелированного источника дискретных сообщений.

     Определить  энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения  вероятностей которого приведен в табл. 1.

     Таблица 1

Nвар xi x1 x2 x3 x4 x5 x6 x7 x8 x9
6 Pi 0,05 0,149 0,174 0,192 0,16 0,1 0,052 0,033 0,09
 

     Решение

Xi X1 X2 X3 X4 X5 X6 X7 X8 X9
pi 0,05 0,149 0,174 0,192 0,16 0,1 0,052 0,033 0,09
I(xi) -log20.05 -log20.09
 

Xi– элемент источника дискретных сообщений

I(xi) – количество информации

H(x) – энтропия источника дискретных сообщений

P(xi) – вероятность появления элемента в сообщении

Количество  информации, содержащейся в элементе сообщения дискретного источника, измеряемого в двоичных единицах количества информации, будем определять по формуле: 

Энтропия  источника дискретных сообщений  можно определить по формуле: 

Где:

L – число элементов источника дискретных сообщений

Получим:

H(x) = (-0.05×log20.05) + (-0.149×log20.149) + (-0.174×log20.174) + (-0.192×log20.192) + (-0.16×log20.16) + (-0.1×log20.1) + (-0.052×log20.052) + (-0.033×log20.033) + (-0.09×log20.09)

Используя свойство логарифмов с×logаb = logаbс запишем:

H(x) = log20.05-0.05 + log20.149-0.149 + log20.174-0.174 + log20.192-0.192 + log20.16-0.16 + log20.1-0.1 + log20.052-0.052 + log20.033-0.033 + log20.09-0.09

H(x) = log21.1616 + log21.3280 + log21.3556 + log21.3728 + log21.3407 + log21.2589 + log21.1662 + log21.1192 + log21.2420

Используя свойство логарифмов logаb + logac = loga(b×c) запишем:

H(x) = log2(1.1616 × 1.3280 × 1.3556 × 1.3728 × 1.3407 × 1.2589 × 1.1662 × 1.1192 × 1.2420)

H(x) = log27.8545 = 2,974

Для того, чтобы  определить коэффициент избыточности источника сообщения Rизб, определим максимальное значение энтропии по формуле:

Hmax = log2L

Hmax = log29

Hmax = 3.17

Для характеристики алфавита источника сообщений представляет интерес сравнения энтропии H(x) с максимальной при данном алфавите энтропии Hmax. По результатам этого сравнения определим коэффициент избыточности источника сообщения Rизб по формуле: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

     Задача 2. Оптимальное статистическое кодирование.

     По  заданному закону распределения  вероятностей дискретного источника  информационных сообщений (табл. 1) провести оптимальное статистическое кодирование  источника сообщений по методу Хаффмена.

Определить  коэффициент избыточности закодированного  источника дискретных информационных сообщений и скорость передачи информации при использовании полученного  кода. При расчете скорости передачи информации длительность элементарной посылки принять равной 5 мксек. 

Решение

Исходя из своего варианта, будем решать задачу по методу Хаффмена:

Для этого  воспользуемся таблицей 1 задачи №1

Используя код Хаффмена построим таблицу элементов источника xi в порядке убывания их вероятностей pi. 
 

xi pi xi↓
pi↓
X1 0.05 X4
0.192
X2 0.149 X3
0.174
X3 0.174 X5
0.16
X4 0.192 X2
0.149
X5 0.16 X6
0.1
X6 0.1 X9
0.09
X7 0.052 X7
0.052
X8 0.033 X1 0.05
X9 0.09 X8
0.033

 
 
 
 
 

xi↓ pi↓ Код ni
X4 0.192 11 2
X3 0.174 011 3
X5 0.16 010 3
X2 0.149 001 3
X6 0.1 101 3
X9 0.09 100 3
X7 0.052 0001 4
X1 0.05 00001 5
X8 0.033 00000 5
 

Элементы  алфавита Xi располагаем в порядке убывания их вероятностей. Граф кода Хоффмена начинаем строить с 2-х элементов алфавита, имеющих наименьшие вероятности. Одному из этих элементов алфавита, а именно верхнему, присваиваем «единичный» символ кодовой комбинации, а нижнему – «нулевой» символ. Далее эти два символа объединяем в промежуточный элемент с вероятностью, равной сумме вероятностей исходных элементов. Затем в ансамбле оставшихся элементов алфавита вместе с промежуточными вновь находим два элемента с наименьшими вероятностями и проделываем предыдущую процедуру. Эту процедуру проделываем до тех пор, пока не исчерпаем весь алфавит источника,, то есть, получим промежуточный символ с вероятностью равной единице. Считывание кодовой комбинации осуществляем с конца графа Хоффмена по стрелкам.

Рассчитаем  среднюю длительность кодовой комбинации: 
 
 
 
 

Найдем коэффициент  избыточности закодированного источника  дискретных информационных сообщений  по формуле: 

Для расчета  возьмем энтропию дискретных сообщений  H(x) из предыдущей задачи (задача №1): 

Информация о работе Контрольная работа по "Основам теории информации"