Автор работы: Пользователь скрыл имя, 22 Января 2012 в 23:37, контрольная работа
Определить энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения вероятностей которого приведен в табл. 1.
Задача №1………………………………………………………………………………………………………………стр.3
Задача №2………………………………………………………………………………………………………………стр.6
Задача №3………………………………………………………………………………………………………………стр.9
Задача №4………………………………………………………………………………………………………………стр.13
Задача №5………………………………………………………………………………………………………………стр.17
Задача №6………………………………………………………………………………………………………………стр.22
Государственное образовательное учреждение высшего профессионального образования
"Балтийский
институт экономики и финансов
(БИЭФ)"
Кафедра прикладной
информатики
Контрольная работа
По дисциплине ОСНОВЫ
ТЕОРИИ ИНФОРМАЦИИ
г. Калининград
2011 г.
План
Задача 1. Энтропия некоррелированного источника дискретных сообщений.
Определить энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения вероятностей которого приведен в табл. 1.
Таблица 1
Nвар | xi | x1 | x2 | x3 | x4 | x5 | x6 | x7 | x8 | x9 |
6 | Pi | 0,05 | 0,149 | 0,174 | 0,192 | 0,16 | 0,1 | 0,052 | 0,033 | 0,09 |
Решение
Xi | X1 | X2 | X3 | X4 | X5 | X6 | X7 | X8 | X9 |
pi | 0,05 | 0,149 | 0,174 | 0,192 | 0,16 | 0,1 | 0,052 | 0,033 | 0,09 |
I(xi) | -log20.05 | … | … | … | … | … | … | … | -log20.09 |
Xi– элемент источника дискретных сообщений
I(xi) – количество информации
H(x) – энтропия источника дискретных сообщений
P(xi) – вероятность появления элемента в сообщении
Количество
информации, содержащейся в элементе
сообщения дискретного
Энтропия
источника дискретных сообщений
можно определить по формуле:
Где:
L – число элементов источника дискретных сообщений
Получим:
H(x) = (-0.05×log20.05) + (-0.149×log20.149) + (-0.174×log20.174) + (-0.192×log20.192) + (-0.16×log20.16) + (-0.1×log20.1) + (-0.052×log20.052) + (-0.033×log20.033) + (-0.09×log20.09)
Используя свойство логарифмов с×logаb = logаbс запишем:
H(x) = log20.05-0.05 + log20.149-0.149 + log20.174-0.174 + log20.192-0.192 + log20.16-0.16 + log20.1-0.1 + log20.052-0.052 + log20.033-0.033 + log20.09-0.09
H(x) = log21.1616 + log21.3280 + log21.3556 + log21.3728 + log21.3407 + log21.2589 + log21.1662 + log21.1192 + log21.2420
Используя свойство логарифмов logаb + logac = loga(b×c) запишем:
H(x) = log2(1.1616 × 1.3280 × 1.3556 × 1.3728 × 1.3407 × 1.2589 × 1.1662 × 1.1192 × 1.2420)
H(x) = log27.8545 = 2,974
Для того, чтобы определить коэффициент избыточности источника сообщения Rизб, определим максимальное значение энтропии по формуле:
Hmax = log2L
Hmax = log29
Hmax = 3.17
Для характеристики
алфавита источника сообщений
Задача 2. Оптимальное статистическое кодирование.
По заданному закону распределения вероятностей дискретного источника информационных сообщений (табл. 1) провести оптимальное статистическое кодирование источника сообщений по методу Хаффмена.
Определить
коэффициент избыточности закодированного
источника дискретных информационных
сообщений и скорость передачи информации
при использовании полученного
кода. При расчете скорости передачи
информации длительность элементарной
посылки принять равной 5 мксек.
Решение
Исходя из своего варианта, будем решать задачу по методу Хаффмена:
Для этого воспользуемся таблицей 1 задачи №1
Используя
код Хаффмена построим таблицу элементов
источника xi в порядке убывания
их вероятностей pi.
xi | pi | xi↓ | |
X1 | 0.05 | X4 | |
X2 | 0.149 | X3 | |
X3 | 0.174 | X5 | |
X4 | 0.192 | X2 | |
X5 | 0.16 | X6 | |
X6 | 0.1 | X9 | |
X7 | 0.052 | X7 | |
X8 | 0.033 | X1 | 0.05 |
X9 | 0.09 | X8 |
xi↓ | pi↓ | Код | ni |
X4 | 0.192 | 11 | 2 |
X3 | 0.174 | 011 | 3 |
X5 | 0.16 | 010 | 3 |
X2 | 0.149 | 001 | 3 |
X6 | 0.1 | 101 | 3 |
X9 | 0.09 | 100 | 3 |
X7 | 0.052 | 0001 | 4 |
X1 | 0.05 | 00001 | 5 |
X8 | 0.033 | 00000 | 5 |
Элементы алфавита Xi располагаем в порядке убывания их вероятностей. Граф кода Хоффмена начинаем строить с 2-х элементов алфавита, имеющих наименьшие вероятности. Одному из этих элементов алфавита, а именно верхнему, присваиваем «единичный» символ кодовой комбинации, а нижнему – «нулевой» символ. Далее эти два символа объединяем в промежуточный элемент с вероятностью, равной сумме вероятностей исходных элементов. Затем в ансамбле оставшихся элементов алфавита вместе с промежуточными вновь находим два элемента с наименьшими вероятностями и проделываем предыдущую процедуру. Эту процедуру проделываем до тех пор, пока не исчерпаем весь алфавит источника,, то есть, получим промежуточный символ с вероятностью равной единице. Считывание кодовой комбинации осуществляем с конца графа Хоффмена по стрелкам.
Рассчитаем
среднюю длительность кодовой комбинации:
Найдем коэффициент
избыточности закодированного источника
дискретных информационных сообщений
по формуле:
Для расчета
возьмем энтропию дискретных сообщений
H(x) из предыдущей задачи (задача №1):
Информация о работе Контрольная работа по "Основам теории информации"