Автор работы: Пользователь скрыл имя, 10 Марта 2011 в 09:43, реферат
Информация - это отражение предметного мира с помощью знаков и сигналов.
Принято говорить, что решение задачи на ЭВМ, в результате чего создается новая информация, получается путем вычислений. Потребность в вычислениях связана с решением задач: научных, инженерных, экономических, медицинских и прочих.
Как измерить информацию?
Как уже говорилось
в примере с номером квартиры,
одни сведения могут содержать в
себе мало информации, а другие - много.
Разработаны различные способы
оценки количества информации. В технике
чаще всего используется способ оценки,
предложенный в 1948 году основоположником
теории информации Клодом Шенноном. Как
было отмечено, информация уничтожает
неопределенность. Степень неопределенности
принято характеризовать с
Вероятность - величина,
которая может принимать
Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события “Завтра будет 5 августа 1832 года” равна нулю в любой день, кроме 4 августа 1832 года. Если событие происходит всегда, его вероятность равна 1.
Чем больше вероятность события, тем выше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Когда же вероятность события мала, сообщение о том, что оно случилось, очень информативно.
Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона:
I = -(p[1]*log(p[1])+p[2]*log(p[2]
здесь
n - число возможных состояний;
p[1],...p[n] - вероятности отдельных состояний;
log( ) - функция логарифма при основании 2.
Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно.
Единица информации
называется битом. Термин “бит” предложен
как аббревиатура от английского
словосочетания “Binary digiT”, которое
переводится как “двоичная
1 бит информации - количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта.
Рассмотрим пример.
Пусть имеется
два объекта. С каждого из них
в определенные моменты времени
диспетчеру передается одно из двух сообщений:
включен или выключен объект. Диспетчеру
известны типы сообщений, но неизвестно,
когда и какое сообщение
Пусть также, объект А работает почти без перерыва, т.е. вероятность того, что он включен, очень велика (например, р_А_вкл=0,99 и р_А_выкл=0,01, а объект Б работает иначе и для него р_Б_вкл=р_Б_выкл=0,5).
Тогда, если диспетчер получает сообщение том, что А включен, он получает очень мало информации. С объектом Б дела обстоят иначе.
Подсчитаем для
этого примера среднее
Объект А : I =
-(0,99*log(0,99)+0,01*log(0,
Объект Б : I =
-(0,50*log(0,50)+0,50*log(0,
Итак, каждое сообщение объекта Б несет 1 бит информации.
Формула Шеннона, в принципе, может быть использована и для оценки количества информации в непрерывных величинах.
При оценке количества дискретной информации часто используется также формула Хартли:
I = log(n) ,
где n - число возможных равновероятных состояний;
log() - функция логарифма при основании 2.
Формула Хартли применяется в случае, когда вероятности состояний, в которых может находиться объект, одинаковые.
Приведем пример. Пусть объект может находиться в одном из восьми равновероятных состояний. Тогда количество информации, поступающей в сообщении о том, в каком именно он находится, будет равно
I = log(8) = 3 [бита].
Оценим количество информации в тексте.
Точно ответить на вопрос, какое количество информации содержит 1 символ в слове или тексте, достаточно сложное дело. Оно требует исследования вопроса о частотах использования символов и всякого рода сочетаний символов. Эта задача решается криптографами. Мы же упростим задачу. Допустим, что текст строится на основе 64 символов, и частота появления каждого из них одинакова, т.е. все символы равновероятны.
Тогда количество информации в одном символе будет равно
I = log(64) = 6 [бит].
Из двух символов данного алфавита может быть образовано n=64*64=4096 различных сочетаний. Следовательно, два символа несут в себе I=log(4096)=12 бит информации.
Оценим количество информации, содержащейся в числах.
Если предположить, что цифры 0, 1, ..., 9 используются одинаково часто (равновероятны), то
одна цифра содержит I = log(10) = 3,32 [бит];
четырехзначное число из диапазона [0..9999], если все его значения равновероятны, содержит
I = log(10000)=13,28 [бит];
а восьмиразрядное число - I=log(100000000)=26,56 [бита].
Итак, количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей.
Повторим основные положения, рассмотренные выше.
1. Информация - отражение предметного или воображаемого мира с помощью знаков и сигналов.
2. Информация
может существовать либо в
непрерывной, либо в
3. Информация
о чем-либо может быть
4. Физический
процесс является сигналом, если
какая-либо присущая ему
5. Чтобы представить
дискретную информацию, надо перечислить
(поименовать) все
Дискретная информация представляется:
числами (как цифровая),
символами некоторого алфавита (символьная),
графическими схемами и чертежами (графическая).
6. Дискретная
информация может
7. Разные алфавиты
обладают одинаковой “
8. Форма представления информации, отличная от естественной, общепринятой, называется кодом.
Широко известны такие коды, как почтовые индексы, нотная запись музыки, телеграфный код Морзе, цифровая запись программ для ЭВМ (программирование в кодах), помехозащищенные коды в системах передачи данных.
9. Информация
уничтожает неопределенность
Вероятность - величина,
которая может принимать
Для оценки количества информации в технике чаще всего используется способ, предложенный Клодом Шенноном. Для случая, когда все состояния, в которых может находиться объект, равновероятны, применяют формулу Хартли. Одна единица информации называется битом.
Список литературы