Автор работы: Пользователь скрыл имя, 20 Ноября 2010 в 17:57, Не определен
История развития информатики
Информация
Единицы измерения информации
Список используемой литературы
Содержание
История развития
информатики
Информация
Единицы измерения
информации
Список используемой
литературы
История развития информатики
В развитии вычислительной техники обычно выделяют несколько поколений ЭВМ: на электронных лампах (40-е-начало 50-х годов), дискретных полупроводниковых приборах (середина 50-х-60-е годы), интегральных микросхемах (в середине 60-х годов).
История компьютера тесным образом связана с попытками человека, облегчить, автоматизировать большие объёмы вычислений. Даже простые арифметические операции с большими числами затруднительны для человеческого мозга. Поэтому уже в древности появилось простейшее счётное устройство - счеты. В семнадцатом веке была изобретена логарифмическая линейка, облегчающая сложные математические расчёты. В 1642 году Блез Паскаль сконструировал восьмиразрядный суммирующий механизм. Два столетия спустя в 1820 году француз Шарль де Кольмар создал арифмометр, способный производить умножение и деление. Этот прибор прочно занял своё место на бухгалтерских столах.
Все основные идеи, которые лежат в основе работы компьютеров, были изложены ещё в 1833 году английским математиком Чарльзом Бэббиджом. Он разработал проект машины для выполнения научных и технических расчётов, где предугадал устройства современного компьютера, а также его задачи. Для ввода и вывода данных Бэббидж предлагал использовать перфокарты - листы из плотной бумаги с информацией, наносимой с помощью отверстий. В то время перфокарты использовались в текстильной промышленности. Управление такой машиной должно было осуществляться программным путём.
Идеи Бэббиджа
стали реально выполняться в жизнь в конце
19 века. В 1888 году американский инженер
Герман Холлерит сконструировал первую
электромеханическую счётную машину.
Эта машина, названная табулятором, могла
считывать и сортировать статистические
записи, закодированные на перфокартах.
В 1890 году изобретение Холлерита было
использовано в 11-ой американской переписи
населения. Работа, которую 500 сотрудников
выполняли в течении семи лет, Холлерит
с 43 помощниками на 43 табуляторах выполнил
за один месяц.
Информация
Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление.
Понятие «информация»
используется в различных науках,
при этом в каждой науке понятие
«информация» связано с различными системами
понятий.
Можно выделить следующие подходы к определению информации:
* традиционный (обыденный) - используется в информатике: информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).
* вероятностный - используется в теории об информации: информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Классификация информации:
По
способам восприятия: визуальная, аудиальная,
тактильная, отобонятельная, вкусовая;
По
формам представления: текстовая, числовая,
графическая, музыкальная, комбинированная
и т.д.;
По
общественному значению: массовая(обыденная),
общественно-политическая, эстетическая;
Специальная:
научная, техническая, управленческая,
производственная;
Личная: наши
знания, умения, интуиция.
Основные свойства информации:
Объективность – не зависит от чего-либо мнения;
Достоверность – отражает истинное положение дел;
Полнота – достаточна для понимания и принятия решения;
Актуальность – важна и существенна для настоящего времени;
Ценность (полезность, значимость) - обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения;
Понятность (ясность)
– выражена на языке, доступном получателю.
Кроме этого информация обладает еще следующими свойствами:
1) Атрибутивные свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди них являются:- дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию).
2) Динамические свойства связаны с изменением информации во времени:
- копирование – размножение информации;
- передача от источника к потребителю;
- перевод с одного языка на другой ;
- перенос на другой носитель;
- старение (физическое – носителя, моральное – ценностное).
3) Практические свойства - информационный объем и плотность.
Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:
1) Знаковой письменной,
состоящей из различных знаков
среди которых выделяют
2) В виде жестов или сигналов;
3) В устной словесной
форме (разговор).
Носители информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и т.д.)
Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.
Для обеспечения
информационного процесса необходим
источник информации, канал связи
и потребитель информации. Источник
передает (отправляет) информацию, а
приемник её получает (воспринимает). Передаваемая
информация добирается от источника до
приемника с помощью сигнала (кода). Изменение
сигнала позволяет получить информацию.
Единицы измерения информации
Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Следующей по порядку
популярной единицей информации является 8
бит, или байт. Именно к байту (а не
к биту) непосредственно приводятся все
большие объёмы информации, исчисляемые
в компьютерных технологиях. В принципе,
байт определяется для конкретного компьютера как минимальный шаг адресации памяти, который на старых
машинах не обязательно был равен 8 битам
(а память не обязательно состоит из битов).
В современной традиции, байт часто считают
равным восьми битам. В таких обозначениях
как Кбайт (русское) или KB (английское)
под байт подразумевается именно 8 бит,
хотя сам термин «байт» не вполне корректен
с точки зрения теории.
Для измерения больших количеств байтов служат единицы «килобайт» = 1000 байт и «Кбайт» = 1024 байт. Такой порядок величин имеют, например:
Единицы «мегабайт» = 1000 килобайт = 1000000 байт и «Мбайт» = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации.
Оперативную память и ёмкость CD-ROM меряют двоичными единицами, но для объёма НЖМД десятичные мегабайты были более популярны. Современные жёсткие диски имеют объёмы, выражаемые в этих единицах минимум шестизначными числами, поэтому для них применяются гигабайты.
Единицы «гигабайт» = 1000 мегабайт = 1000000000 байт и «Гбайт» = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %.
Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4,295 гигабайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт.
Для исчисления
ещё больших объёмов информации
имеются единицы терабайт,
петабайт и т.д.