Информатика как наука

Автор работы: Пользователь скрыл имя, 03 Июня 2013 в 21:56, лекция

Описание работы

Информационные революции:
появление письменности;
изобретение книгопечатания;
изобретение электричества (телеграф, радио и т.д.);
изобретение микропроцессорной технологии и появление ПК;
информационная индустрия, вязанная с производством технологических средств, методов, технологий для производства новых знаний

Файлы: 1 файл

01. Информатика как наука.docx

— 19.09 Кб (Скачать файл)

Информатика как  наука

Информационные революции:

  1. появление письменности;
  2. изобретение книгопечатания;
  3. изобретение электричества (телеграф, радио и т.д.);
  4. изобретение микропроцессорной технологии и появление ПК;
  5. информационная индустрия, вязанная с производством технологических средств, методов, технологий для производства новых знаний.

Информационная технология (ИТ) – это совокупность средств  и методов сбора, обработки и передачи данных для получения информации нового качества о состоянии объекта, процесса или явления.

Телекоммуникации – это  дистанционная передача данных на базе компьютерных систем и современных технических средств связи.

В России термин «информатика»  появился в 1963 году. В 60-е гг. XX века во Франции. informatique = information + automatique – «автоматизация переработки информации». В США использовалось понятие «computer science» - наука о компьютерах.

Информатика – это техническая  наука, систематизирующая приёмы создания, хранения, обработки и передачи информации средствами вычислительной техники, а  также принципы функционирования этих средств и методы управления ими.

Важнейшие задачи:

Изучение и обеспечение  «дружественного» интерфейса между человеком и аппаратно-программными средствами обработки информации.

    • математическое моделирование;
    • алгоритмизация;
    • программирование;
    • выполнение вычислительных экспериментов;
    • решение конкретных задач.

Краткая история.

В 1830 г. термин «кибернетика»  ввёл Андре-Мари Ампер (наука об общих  законах получения, хранения, передачи и переработки информации в сложных системах).

В 1948 г. этот термин возродил Норберт Винер («отец кибернетики») – это наука об управлении в живой природе и технических системах.

Предмет изучения: структура, свойства и закономерности семантической  информации, процессы её сбора, переработки, хранения, поиска, передачи и использования.

Семантическая информация –  это выраженная на естественном языке  и имеющая смысл, доступный для логического восприятия.

Информация (от лат. «informatio») – это разъяснение, сведения о чём-либо. Информация обладает 4 свойствами: её можно создавать, передавать (получать), хранить и обрабатывать.

Данные – это представление  в виде фактов и понятий в знаковой форме, пригодной для их передачи, обработки и интерпретации.

Информация – это смысл. который человек вкладывает данным на основании известных ему правил их представления.

Сообщение – это информация, представленная в определённой форме  и предназначенная для передачи.

Знания – это структурированная  информация, т.е. связанная причинно-следственными  отношениями и образующая систему.

Классификации информации:

    • По способам восприятия (визуальная, аудиальная, тактильная, обонятельная, вкусовая);
    • По формам представления (текстовая, числовая, графическая, музыкальная, комбинированная);
    • По естественному назначению (массовая, общественно-политическая, эстетическая…)

Основные свойства:

    • достоверность;
    • полнота;
    • ценность;
    • актуальность;
    • понятность.

Потребительские свойства:

    • релевантность;
    • объективность;
    • защищённость;
    • эргономичность.

Научная информация – это  логическая, адекватно отображающая объективные закономерности природы, общества и мышления.

Адекватность – это  свойство информации однозначно соответствовать  отображаемому объекту или явлению.

Свойства, связанные с  процессом хранения: живучесть и  уникальность.

Информационный процесс  – это процесс, использующий совокупность средств и методов сбора, обработки  и передачи данных.

Информационные процессы: обмен, хранение и обработка (создание, кодирование, поиск, сортировка).

Обмен: образная и знаковая система.

Хранение: в образной и  знаковой форме, в памяти (оперативная) и на внешних носителях (внешняя).

Обработка: в уме или  с помощью вспомогательных средств.

Носитель информации –  это среда для записи и хранения информации.

Сигнал – это любой  процесс, несущий информацию.

Аналоговый сигнал – это  непрерывно изменяющийся по амплитуде  и во времени сигнал.

Дискретный сигнал принимает  лишь конечное число значений в конечном числе моментов времени.

Кодирование – это операция преобразования знаков или групп  знаков одной знаковой системы в  знаки или группы знаков другой знаковой системы.

Способы кодирования информации: символьный, лингвистический, табличный, графический.

Двоичное кодирование  текста

Кодовая таблица ASCII (American Standard Codification for Information Interchange). На 1 символ 1 байт (8 бит), всего можно закодировать 28 = 256 символов.

Международный стандарт UNICODE. На 1 символ 2 байта (16 бит), и можно закодировать 216 = 65536 различных символов.

Кодирование графики. Каждый цвет кодируется с помощью 3 чисел (байтов). Чем больше значение байта цветовой составляющей, тем ярче этот цвет.

Кодирование звука. Временная  дискретизация – это способ преобразования звука в цифровую форму путём разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются. Качество зависит от глубины кодирования и частоты дискретизации.

Системы счисления – совокупность правил и приёмов записи чисел  с помощью набора цифровых знаков.

2 типа систем счисления:  позиционные (римская) и непозиционные  (десятичная).

В любой позиционной системе  счисления целое число Xs, состоящее из n разрядов, может быть представлено в виде:

Xs = {AnAn-1 … A1A0} = AnSn + An-1Sn-1 + … + A1S1 + A0S0.

S – основание системы счисления.

Ai – цифры числа.

152110 = 1*100 + 2*102 +5*102 + 1*103.

1010012 = 1*20 + 1*23 + 1*25 = 1 + 8 + 32 = 4110.

263810 = А4Е16:

2638/16 = 164 (14 ост. = Е); 164/16 = 10(=А) (4 ост.).

Способы измерения информации:

    1. Технический способ (используется в технике). Бит – 1 символ двоичного алфавита. Байт – это количество информации, которое можно передать с помощью 8 двоичных символов.
    2. Энтропийный – устанавливает ценность информации, содержащейся в сообщении. I = log2N (формула Хартли), где I – мера неопределённости, а N – число.

Информация о работе Информатика как наука