Автор работы: Пользователь скрыл имя, 16 Января 2015 в 00:01, контрольная работа
Эффективная организация обмена информацией приобретает все большее значение, прежде всего, как условие успешной практической деятельности людей. Объем информации, необходимой для нормального функционирования современного общества, растет примерно пропорционально квадрату развития производительных сил. Доля рабочей силы, занятой вопросами обеспечения информацией, в развитых странах начинает превышать долю рабочей силы, занятой непосредственно в сфере производства.
Содержание
Структурная схема цифрового информационного канала показана на рисунке 1.
Рисунок 1
На вход такого канала обычно поступают дискретные соотношения х, например, в виде текста. Последние с помощью кодирующего устройства преобразуются в кодированные сигналы у. Как известно, для кодирования используется некоторый алфавит элементарных сигналов (символов) – у1, у2,…, уm, а существо кодирования сводится к представлению отдельных сообщений xi или последовательностей сообщений некоторыми комбинациями символов используемого алфавита. Декодирующее устройство преобразует кодированные сигналы z в сообщения w в форме, наиболее приемлемой для получателя, которым может быть не только человек, но и различные технические устройства (принтер, монитор, ПЭВМ и др.). В современных информационно-вычислительных комплексах исходные сообщения х могут быть и в непрерывной форме, но с помощью кодирующих устройств последние преобразуют в кодированные сигналы.
В реальных каналах неизбежны различного рода помехи, представленные на рис.1 в виде источника помех, которые нередко называют шумом. Термин «шум» впервые, видимо, появился применительно к телефонным каналам, в которых помехи воспринимались «на слух». Эти каналы в настоящее время широко используются не только по прямому назначению, но и для передачи цифровых данных в информационных системах.
При отсутствии шумов можно считать, что в информационном канале z = y, а w = x, следовательно, для сообщений zT = yT, wT = xT, передаваемых за время Т, количество информации, поступающей к получателю от источника, составит
где – энтропия источника сообщений.
По аналогии для канала связи, представляющего часть информационного канала, будем иметь
.
Если последовательность XТ состоит из m сообщений и средняя длительность сигнала, обеспечивающего передачу одного сообщения составляет tс, то можно определить скорость передачи информации как
где Н(X) – энтропия источника n сообщений:
В дальнейшем основание 2 логарифма для простоты будет опущено.
Очевидно, что скорость передачи информации будет зависеть от статистических характеристик источника сообщений, метода кодирования сообщений и свойств канала. Так, при одном и том же способе кодирования длительность символов передаваемых сигналов может быть различной в зависимости от ширины полосы частот пропускания канала. С изменением длительности символов меняется и скорость передачи информации.
Пропускная способность информационного канала C определяется максимальным значением скорости передачи:
Аналогично находится пропускная способность канала связи Cс, являющегося частью информационного канала:
Обычно Cс > C.
Реальная скорость передачи информации может быть максимальной и равной пропускной способности канала, если статистические характеристики источника сообщений определенным образом согласованы со свойствами информационного канала. Для каждого источника это может быть достигнуто специальным выбором способа кодирования сообщений. Такое кодирование, при котором достигается наиболее эффективное использование пропускной способности дискретного канала (т.е. обеспечивается максимальная скорость передачи информации макс), называется эффективным.
Дискретный канал, в котором передаваемые сообщения представлены двоичным кодом, называется двоичным каналом. Если код имеет m символов (разрядов), то очевидно, что всего можно закодировать n = 2m сообщений, а длительность одного сообщения составит T = mt, где t - длительность символа кода с учетом того, что все символы обычно имеют одинаковую длительность. Двоичные коды, состоящие из одинакового числа символов m, называются равномерными. Пропускная способность рассматриваемого канала с учетом формул (1.1), (1.2) и (1.3) составит
Выражение (1.4) принимает максимальное значение, когда энтропия ансамбля событий (сообщений) H(YT) будет наибольшей. Из свойств энтропии следует, что H(YT) будет максимальна, если сообщения равновероятны, это максимальное значение может быть определено мерой Хартли и будет равно log n = log2m = m [2].
Записывают сообщения в порядке убывания их вероятностей. Проводят первое деление всех сообщений на две подгруппы I и II так, чтобы сумма вероятностей сообщений в подгруппах I и II была бы по возможности одинаковой.
Таблица 1
Сообщение Xi |
Вероятность P(Xi) |
Номер деления на подгруппы |
Символ кода |
Длительность кодовой комбинации, ti | ||||
Позиции | ||||||||
1 |
2 |
3 |
1 |
2 |
3 | |||
Х2 |
0,49 |
|
|
|
0 |
1t | ||
Х3 |
0,25 |
1 |
0 |
2t | ||||
Х1 |
0,125 |
1 |
1 |
0 |
3t | |||
Х4 |
0,135 |
1 |
1 |
1 |
3t |
Анализируя неравномерный код Шеннона - Фано, можно убедиться в том, что наиболее вероятному сообщению соответствует самая короткая кодовая комбинация, наименее вероятному – длинная. Этим можно объяснить увеличение скорости передачи информации при использовании данного кода.
Для наглядности в таблице 2 для сообщений х1, х2, х3, х4 приведены неравномерный код Шеннона - Фано и равномерный, используемый ранее в примере 1.
Таблица 2
Сообщение xi |
Код Шеннона - Фано |
Равномерный код |
X2 |
0 |
00 |
X3 |
10 |
01 |
X1 |
110 |
10 |
x4 |
111 |
11 |
Код Шеннона - Фано обладает еще одним существенным свойством: позволяет декодировать сообщения без введения дополнительных разделительных символов между кодовыми комбинациями, приводящих к снижению скорости передачи информации. Действительно, в рассмотренном примере короткие комбинации не совпадают с началом других более длинных кодовых комбинаций. Поэтому возможно однозначное декодирование последовательности кодовых комбинаций, формируемых непрерывно без применения разделительных символов.
Информация о работе Пропускная способность дискретного (цифрового) канала