Автор работы: Пользователь скрыл имя, 15 Ноября 2009 в 14:15, Не определен
I. Введение
II. Информация и ее свойства
III. Заключение
Использованные источники
Так,
американский инженер Р. Хартли (1928
г.) процесс получения информации
рассматривает как выбор одного
сообщения из конечного наперёд
заданного множества из N равновероятных
сообщений, а количество информации
I, содержащееся в выбранном сообщении,
определяет как двоичный логарифм N.
Формула
Хартли: I = log2N.
Допустим,
нужно угадать одно число из набора
чисел от единицы до ста. По формуле
Хартли можно вычислить, какое количество
информации для этого требуется:
I = log2100 ” 6,644. То есть сообщение о верно
угаданном числе содержит количество
информации, приблизительно равное 6,644
единиц информации.
Приведем другие примеры равновероятных сообщений:
при бросании монеты: "выпала решка", "выпал орел";
на странице книги: "количество букв чётное", "количество букв нечётное".
Определим
теперь, являются ли равновероятными
сообщения "первой выйдет из дверей
здания женщина" и "первым выйдет
из дверей здания мужчина". Однозначно
ответить на этот вопрос нельзя. Все
зависит от того, о каком именно здании
идет речь. Если это, например, станция
метро, то вероятность выйти из дверей
первым одинакова для мужчины и женщины,
а если это военная казарма, то для мужчины
эта вероятность значительно выше, чем
для женщины.
Для
задач такого рода американский учёный
Клод Шеннон предложил в 1948 г. другую формулу
определения количества информации, учитывающую
возможную неодинаковую вероятность сообщений
в наборе.
Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),
где
pi — вероятность того, что именно i-е сообщение
выделено в наборе из N сообщений.
Легко
заметить, что если вероятности p1, ...,
pN равны, то каждая из них равна 1/N, и
формула Шеннона превращается в
формулу Хартли.
Помимо
двух рассмотренных подходов к определению
количества информации, существуют и другие.
Важно помнить, что любые теоретические
результаты применимы лишь к определённому
кругу случаев, очерченному первоначальными
допущениями.
В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).
Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.
А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко
используются также ещё более
крупные производные единицы
информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1
Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В
последнее время в связи с
увеличением объёмов
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1
Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
За
единицу информации можно было бы
выбрать количество информации, необходимое
для различения, например, десяти равновероятных
сообщений. Это будет не двоичная
(бит), а десятичная (дит) единица
информации.
5. Использование
информации
Информацию можно: создавать, передавать, воспринимать, иcпользовать, запоминать, принимать, копировать, формализовать, распространять, преобразовывать, комбинировать, обрабатывать, делить на части, упрощать, собирать, хранить, искать, измерять, разрушать, и др.
Все
эти процессы, связанные с определенными
операциями над информацией, называются
информационными процессами.
6.
Обработка информации
Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.
Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.
Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.
Живые
организмы и растения обрабатывают
информацию с помощью своих органов
и систем.
7. Информационные ресурсы
и информационные технологии
Информационные ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.
Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.
Информационные ресурсы (в отличие от всех других видов ресурсов — трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.
Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.
Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.
В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.
Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.
Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.
В
настоящее время создание крупномасштабных
информационно-технологических
8.
Информатизация общества
Информатизация общества — организованный социально-экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления организаций, общественных объединений на основе формирования и использования информационных ресурсов.
Цель информатизации — улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.
Информатизация — это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.
III.
Заключение
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи.
Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.
Информационные источники
1. Брюшинкин В.Н. Логика, мышление, информация. Л.: ЛГУ, 1988.
2. Багриновский
К. А., Хрусталев Е. Ю. “Новые
информационные технологии”.
3. Дмитриев В.К. Прикладная теория информации. М., 1989.
4. Колесов А. “Проблемы развития российского рынка программного обеспечения”. Компьютерра. №4-5. 1996 г.
5. Майоров С. И. Информационный бизнес: коммерческое распространение и маркетинг. – М., 1983.
6. Пекелис В. Кибернетика от А до Я. М.,1990.
7. Поппель
Г., Голдстайн Б. Информационная технология
– миллионные прибыли. – М., 1990.