История развития информатики

Автор работы: Пользователь скрыл имя, 20 Ноября 2010 в 17:57, Не определен

Описание работы

История развития информатики
Информация
Единицы измерения информации
Список используемой литературы

Файлы: 1 файл

История развития информатики.docx

— 32.53 Кб (Скачать файл)
 

Содержание 

История развития информатики                                                         3

Информация                                                                                          4

Единицы измерения  информации                                                       7

Список используемой литературы                                                      9 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

История развития информатики

    Информатика – наука об общих свойствах и закономерностях информации, а также методах её поиска, передачи, хранения, обработки и использования в различных сферах деятельности человека. Как наука сформировалась в результате появления ЭВМ. Включает в себя теорию кодирования информации, разработку методов и языков программирования, математическую теорию процессов передачи и обработки информации.

    В развитии вычислительной техники обычно выделяют несколько поколений ЭВМ: на электронных лампах (40-е-начало 50-х годов), дискретных полупроводниковых приборах (середина 50-х-60-е годы), интегральных микросхемах (в середине 60-х годов).

    История компьютера тесным образом связана с попытками человека, облегчить, автоматизировать большие объёмы вычислений. Даже простые арифметические операции с большими числами затруднительны для человеческого мозга. Поэтому уже в древности появилось простейшее счётное устройство - счеты. В семнадцатом веке была изобретена логарифмическая линейка, облегчающая сложные математические расчёты. В 1642 году Блез Паскаль сконструировал восьмиразрядный суммирующий механизм. Два столетия спустя в 1820 году француз Шарль де Кольмар создал арифмометр, способный производить умножение и деление. Этот прибор прочно занял своё место на бухгалтерских столах.

    Все основные идеи, которые лежат в основе работы компьютеров, были изложены ещё в 1833 году английским математиком Чарльзом Бэббиджом. Он разработал проект машины для выполнения научных и технических расчётов, где предугадал устройства современного компьютера, а также его задачи. Для ввода и вывода данных Бэббидж предлагал использовать перфокарты - листы из плотной бумаги с информацией, наносимой с помощью отверстий. В то время перфокарты использовались в текстильной промышленности. Управление такой машиной должно было осуществляться программным путём.

    Идеи Бэббиджа стали реально выполняться в жизнь в конце 19 века. В 1888 году американский инженер Герман Холлерит сконструировал первую электромеханическую счётную машину. Эта машина, названная табулятором, могла считывать и сортировать статистические записи, закодированные на перфокартах. В 1890 году изобретение Холлерита было использовано в 11-ой американской переписи населения. Работа, которую 500 сотрудников выполняли в течении семи лет, Холлерит с 43 помощниками на 43 табуляторах выполнил за один месяц. 
 
 
 

Информация 

Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление.

Понятие «информация» используется в различных науках, при этом в каждой науке понятие  «информация» связано с различными системами понятий.  

Можно выделить следующие  подходы к определению  информации:

* традиционный (обыденный) - используется в информатике: информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

* вероятностный  - используется в теории об информации: информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Классификация информации:

По  способам восприятия: визуальная, аудиальная, тактильная, отобонятельная, вкусовая; 

По  формам представления: текстовая, числовая, графическая, музыкальная, комбинированная и т.д.; 

По  общественному значению: массовая(обыденная), общественно-политическая, эстетическая; 

Специальная: научная, техническая, управленческая, производственная; 

Личная: наши знания, умения, интуиция.  

Основные  свойства информации:

Объективность – не зависит от чего-либо мнения;

Достоверность – отражает истинное положение дел;

Полнота – достаточна для понимания и принятия решения;

Актуальность – важна и существенна для настоящего времени;

Ценность (полезность, значимость) - обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения;

Понятность (ясность) выражена на языке, доступном получателю.   

Кроме этого информация обладает еще следующими свойствами:

1) Атрибутивные свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди них являются:- дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию).

2) Динамические свойства связаны с изменением информации во времени:

- копирование  – размножение информации;

- передача от  источника к потребителю;

- перевод с  одного языка на другой ;

- перенос на  другой носитель;

- старение (физическое  – носителя, моральное – ценностное).

3) Практические свойства - информационный объем и плотность.

Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной  форме:

1) Знаковой письменной, состоящей из различных знаков  среди которых выделяют символьную в виде текста, чисел, специальных символов; графическую; табличную и т.д.;

2) В виде жестов  или сигналов;

3) В устной словесной форме (разговор). 

Носители  информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и т.д.) 

Информационные  процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Для обеспечения  информационного процесса необходим  источник информации, канал связи  и потребитель информации. Источник передает (отправляет) информацию, а  приемник её получает (воспринимает). Передаваемая информация добирается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию. 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Единицы измерения информации

Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.

Следующей по порядку  популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях. В принципе, байт определяется для конкретного компьютера как минимальный шаг адресации памяти, который на старых машинах не обязательно был равен 8 битам (а память не обязательно состоит из битов). В современной традиции, байт часто считают равным восьми битам. В таких обозначениях как Кбайт (русское) или KB (английское) под байт подразумевается именно 8 бит, хотя сам термин «байт» не вполне корректен с точки зрения теории. 

Для измерения  больших количеств байтов служат единицы «килобайт» = 1000 байт и «Кбайт» = 1024 байт. Такой порядок величин имеют, например:

  • Сектор диска обычно равен 512 байтам то есть половине Кбайт, хотя для некоторых устройств может быть равен одному или двум Кбайт.
  • Классический размер «блока» в файловых системах UNIX равен одному Кбайт (1024 байт).
  • «Страница памяти» в процессорах x86 (начиная с модели Intel 80386) имеет размер 4096 байт, то есть 4 Кбайт.

Единицы «мегабайт» = 1000 килобайт = 1000000 байт и «Мбайт» = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации.

Оперативную память и ёмкость CD-ROM меряют двоичными единицами, но для объёма НЖМД десятичные мегабайты были более популярны. Современные жёсткие диски имеют объёмы, выражаемые в этих единицах минимум шестизначными числами, поэтому для них применяются гигабайты.

Единицы «гигабайт» = 1000 мегабайт = 1000000000 байт и «Гбайт» = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %.

Размер 32-битного  адресного пространства равен 4 Гбайт  ≈ 4,295 гигабайт. Такой же порядок  имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт.

Для исчисления ещё больших объёмов информации имеются единицы терабайт, петабайт и т.д. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Литература

  1. Бауэр Ф.Л. Информатика. Вводный курс: В 2-х ч. 1990. 
  2. Миньков С.Л. Информатика: Учебное пособие. 2000. 
  3. Угринович Н. Информатика и информационные технологии. Учебник для 10–11 классов. 2003.
  4. http://ru.wikipedia.org,
  5. http://www.computer-museum.ru/frgnhist/boologic.htm

Информация о работе История развития информатики