Контрольная работа по "Информационное общество"

Автор работы: Пользователь скрыл имя, 17 Октября 2013 в 19:38, контрольная работа

Описание работы

1.Возможно ли, чтобы бинарный ответ содержал меньше 1 бит информации?
Способов передачи информации существует множество: почта, телефон, радио, телевидение, компьютерные сети и пр. Однако в них можно выделить общие элементы (рис. 3).

Файлы: 1 файл

информационное общество.docx

— 273.36 Кб (Скачать файл)

                                                              Вариант 4.

 

         1.Возможно ли, чтобы бинарный ответ содержал меньше 1 бит информации?

Способов передачи информации существует множество: почта, телефон, радио, телевидение, компьютерные сети и пр. Однако в  них можно выделить общие элементы (рис. 3).

                   Рис. 3. Общая схема передачи информации

 

 

Источник информации

 

       
 

Кодирующее устройство

 
         
 

Преобразователь «коды ® сигналы»

 

       

Шумы  
(помехи)

 

Канал  
связи

 

Защита  
от шумов

         
 

Преобразователь «сигналы ® коды»

 
         
 

Декодирующее устройство

 
         
 

Приемник информации

 

 

Источник информации порождает информацию и для передачи представляет ее в виде сообщения. Для представления информации он использует систему кодирования. Кодирующее устройство может являться подсистемой источника или внешним устройством по отношению к источнику информации.

Преобразователь переводит коды в последовательность материальных сигналов, т. е. помещает их на материальный носитель. Преобразователь может быть совмещен с кодирующим устройством, но может быть и самостоятельным элементом линии связи.

После преобразователя сигналы  поступают и распространяются по каналу связи. Реальный канал связи подвержен внешним воздействиям, а также в нем могут происходить внутренние процессы, в результате которых искажаются передаваемые сигналы и связанное с ними сообщение. Такие воздействия называются шумами (помехами).

После прохождения сообщения по каналу связи сигналы с помощью  преобразователя переводятся в  последовательность кодов, которые  затем декодируются в форму необходимой  приемнику информации. На этапе приема преобразователь также может  быть совмещен с декодирующим устройством  или существовать самостоятельно.

Линия связи объединяет все элементы от источника до приемника информации. Характеристиками линии связи являются скорость передачи сообщения, а также степень искажения сообщения в процессе передачи.

 

                                                   Характеристики канала связи

Рассмотрим каналы связи, передача сообщений по которым осуществляется за счет электрических импульсов.

Ширина полосы пропускания – интервал частот, используемый каналом связи для передачи сигналов.

В данном случае важна не сама ширина полосы пропускания, а максимальное значение частоты (nm) из данной полосы, поскольку именно она определяет возможную скорость передачи информации по каналу.

Длительность элементарного импульса определяют исходя из следующих соображений. Если параметр сигнала меняется синусоидально, то за один период колебания Т сигнал будет иметь одно максимальное и одно минимальное значения. Если аппроксимировать синусоиду прямоугольными импульсами и сместить начало отсчета на уровень минимального значения (рис. 4), получится, что сигнал принимает всего два значения: максимальное – импульс (обозначим его 1) и минимальное – пауза (0).

 Рис. 4. Аппроксимация синусоидального параметра сигнала


 

 

 

 

 

 

 

 

 

 

 

Импульс и пауза – элементарные сигналы. При выбранной аппроксимации  длительности сигналов (t0) одинаковы и равны:

                                                                       

Если же импульсы порождаются тактовым генератором, имеющим частоту nm, то

.

Таким образом, nm определяет длительность элементарного сигнала t0, используемого для передачи сообщения.

Пропускная способность канала связи. Если с передачей одного импульса связано количество информации Iimp, а передается оно за время t0, то отношение Iimp к t0 будет отражать среднее количество информации, передаваемое по каналу за единицу времени. Эта величина является характеристикой канала связи и называется пропускной способностью канала (С), которая рассчитывается по формуле

                                                                              

Если Iimp выражено в битах, а t0 – в секундах, то единицей измерения С будет бит/с. Величину Iimp можно установить следующим образом: если первичный алфавит содержит N знаков с вероятностями появления их в сообщении рi, то по формуле Шеннона можно найти среднюю информацию на знак первичного алфавита I1, для представления которого используется двоичный код длиной K(2). Тогда

                                                                             .

Отсюда получаем формулу для  определения пропускной способности  канала:

.

Скорость передачи информации. Пусть по каналу связи за время t передано количество информации I. Можно ввести величину, характеризующую быстроту передачи информации – скорость передачи информации J:

                                                                                .

Размерностью J, как и С, является бит/с.

Максимальная скорость передачи информации по каналу связи равна его пропускной способности.

 

Влияние шумов на пропускную способность канала.

Отличие реального канала от идеального состоит в том, что шумы приводят к снижению пропускной способности  канала.В реальном канале из-за шумов при передаче может произойти искажение сигнала. Пусть его вероятность равна р. Тогда вероятность того, что исходный сигнал придет без искажений, равна 1–р. Следовательно, при распознавании конечного сигнала возникает неопределенность, которая может быть охарактеризована средней энтропией:

                                                             H = –p × log2p – (1 – p) × log2(1 – p).                    (5.1)

Эта неопределенность приведет к уменьшению количества информации, содержащейся в сигнале, на величину Н:                                                    .

Поскольку длительность импульса t0 определяется частотой nm и не зависит от наличия шумов, пропускная способность реального канала CR оказывается меньше, чем аналогичного идеального С:

                                          .

 

Обеспечение надежности передачи и хранения информации

Все реальные каналы связи подвержены воздействию помех. Шеннон доказал  теоретическую возможность передачи сообщения без потерь информации по реальным каналам, если при этом выполнен ряд условий.

Вторая теорема Шеннона. При передаче информации по каналу с шумом всегда имеется способ кодирования, при котором сообщение будет передаваться со сколь угодно высокой достоверностью, если скорость передачи не превышает пропускной способности канала.

Решение проблемы состоит в использовании  таких методов кодирования информации, которые позволили бы контролировать правильность передачи и при обнаружении  ошибки исправлять ее. При этом можно  рассмотреть две ситуации:

· кодирование обеспечивает только установление факта искажения информации, в этом случае исправление производится путем ее повторной передачи;

· кодирование позволяет определить и автоматически исправить ошибку передачи.

Общим условием является использование  только равномерных кодов. Надежность обеспечивается тем, что с битами, кодирующими сообщение (информационными битами), передаются дополнительные биты (контрольные), по состоянию которых можно судить о правильности передачи. При равномерном кодировании сообщения длина кодовой цепочки k для знака складывается из длины информационной части ki и числа контрольных битов kс.

Избыточность сообщения (L) для реального канала определим следующим образом:

                                                               .

Относительная избыточность сообщения – это характеристика, показывающая, во сколько раз требуется удлинить сообщение, чтобы обеспечить его надежную передачу (хранение). При равной надежности передачи предпочтение должно быть отдано тому способу кодирования, при котором избыточность окажется наименьшей. Избыточность сообщения характеризует эффективность кодирования при передаче по реальным каналам, но не указывает, каким образом следует осуществлять кодирование, чтобы ошибка могла быть локализована и определена. Произведем количественные оценки. Шумы в канале связи ведут к частичной потере передаваемой информации на величину возникающей неопределенности, которая при передаче одного бита исходного сообщения может быть вычислена по формуле 5.1.

Для восстановления информационного  содержания сообщения следует дополнительно  передать количество информации не менее  величины ее потерь, т. е. вместо передачи каждого 1 бита информации следует передавать 1 + Н битов. В этом случае избыточность сообщения составит

                                                   

Избыточность Lmin считается минимальной, поскольку при передаче сообщения по каналу, характеризуемому вероятностью искажения р и избыточностью меньше Lmin, восстановление информации оказывается невозможным. Рассмотрим метод кодирования, позволяющий определить, в каком бите находится ошибка. Метод был предложен в 1948 г. Р. Хеммингом. Построенные по этому методу коды получили название «коды Хемминга».

                                                                    Код Хемминга

Идея состоит в добавлении к информационным битам нескольких битов четности, каждый из которых  контролирует определенные информационные биты. Если пронумеровать все передаваемые биты, начиная с первого слева  направо (информационные биты нумеруются с нулевого и справа налево), то контрольными оказываются биты, номера которых  равны степеням числа 2, а все остальные  являются информационными. Например, для  восьми битного информационного  кода (рис. 5) контрольными окажутся биты с номерами 1, 2, 4 и 8:                                     Рис. 5. Восьмибитный информационный код



 

1

2

3

4

5

6

7

8

9

10

11

12

0

0

0

1

1

1

0

1

1

1

0

1

 

7

 

6

5

4

 

3

2

1

0



                   

                              Рис. 5. Восьмибитный информационный код

Номера контролируемых битов для  каждого проверочного бита приведены в табл. 9. В перечень контролируемых битов входит и тот, в котором располагается проверочный. При этом состояние проверочного бита устанавливается таким образом, чтобы суммарное количество единиц в контролируемых им битах было четным.

                                        Таблица 9. Номера контролируемых битов для проверочных

Номера  
проверочных битов

Номера контролируемых битов

1

1

3

5

7

9

11

13

15

17

19

21

2

2

3

6

7

10

11

14

15

18

19

22

4

4

5

6

7

12

13

14

15

20

21

22

8

8

9

10

11

12

13

14

15

24

25

26

16

16

17

18

19

20

21

22

23

24

25

26

32

32

33

34

35

36

37

38

39

40

41

42

Информация о работе Контрольная работа по "Информационное общество"