Лекции по "Программному обеспечению"

Автор работы: Пользователь скрыл имя, 05 Февраля 2011 в 17:27, курс лекций

Описание работы

В работе рассматриваются основные вопросы в виде лекций по предмету "Программное обеспечение".

Файлы: 16 файлов

Лекция_1.doc

— 130.50 Кб (Скачать файл)

Информация  в материальном мире.

Понятие информации

     Любая деятельность человека представляет собой  процесс сбора и переработки  информации, принятия на ее основе решении  и их выполнения. С появлением современных  средств вычислительной техники  информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

     Информация  содержится в человеческой речи, текстах  книг, журналов и газет, сообщениях радио и телевидения, показаниях приборов и т. д. Человек воспринимает информацию с помощью органов чувств, хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.

     Информация относится к классу первичных понятий, по которым нельзя дать точного определения.

     Оно предполагает:

      • наличие материального носителя информации;
      • источника информации;
      • передатчика информации;
      • приемника информации;
      • канала связи между источником и приемником.

Рис. 1. Понятие информации

     Понятие информации используется во всех сферах: науке, технике, культуре, социологии и  повседневной жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.

     Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность. Энциклопедический словарь (М.: Сов. энциклопедия, 1990) определяет информацию в исторической эволюции: первоначально – сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.); с середины XX века – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире (передача признаков от клетки к клетке, от организма к организму).

     Более узкое определение дается в технике, где это понятие включает в  себя все сведения, являющиеся объектом хранения, передачи и преобразования.

     Наиболее  общее определение имеет место в философии, где под информацией понимается отражение реального мира. Информацию как философскую категорию рассматривают как один из атрибутов материи, отражающий ее структуру.

     В эволюционном ряду вещество –> энергия –> информация каждое последующее проявление материи отличается от предыдущего тем, что людям было труднее его распознать, выделить и использовать в чистом виде. Именно сложность выделения различных проявлений материи обусловила, наверное, указанную последовательность познания природы человечеством.

     В итоге понятие информации можно  определить следующей формулировкой.

     Информация (information) – совокупность фактов, явлений, событий, представляющих интерес, подлежащих регистрации и обработке.

     Формы и виды информации

     С понятием информации связаны такие понятия, как сигнал, сообщение и данные.

     Сигнал (от латинского signum – знак) представляет собой любой процесс, несущий информацию.

     Данные это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например ЭВМ. (Данные – это зарегистрированные сигналы).

     Сообщение это информация, представленная в определенной форме и предназначенная для передачи. (Данные, предназначенные для передачи).

     Различают две формы представления информации – непрерывную (аналоговую) и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т. д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.

     Сигнал  называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.

     Следует различать непрерывность или  дискретность сигнала по уровню и во времени.

     На  рис. 2 в виде графиков изображены: а) непрерывный по уровню и во времени сигнал Хнн; б) дискретный по уровню и непрерывный во времени сигнал Хдн; в) непрерывный по уровню и дискретный во времени сигнал Хнд; г) дискретный по уровню и во времени сигнал Хдд. 

Рис. 2. Форма представления  информации

     Наконец, все многообразие окружающей нас  информации можно сгруппировать  по различным признакам, т. е. классифицировать по видам. Например, в зависимости  от области возникновения:

  • информацию, отражающую процессы и явления неодушевленной природы, называют элементарной,
  • информацию о процессах животного и растительного мира – биологической,
  • информацию человеческого общества – социальной.

     По  способу передачи и восприятия различают следующие виды информации:

  • визуальную – передаваемую видимыми образами и символами;
  • аудиальную – звуками;
  • тактильную – ощущениями;
  • органолептическую – запахами и вкусом;
  • машинную – выдаваемую и воспринимаемую средствами вычислительной техники, и т. д.

    Свойства  информации

     С точки зрения информатики наиболее важными представляются следующие  свойства:

      • объективность;
      • полнота;
      • достоверность;
      • адекватность;
      • доступность;
      • актуальность.

     Объективность и субъективность информации. Понятие объективности и субъективности информации является относительным. Это понятно, если учесть что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком.

     Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания для создания новых данных на основе имеющихся.

     Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» – всегда присутствует какой – то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определённым уровнем «информационного шума».

Рис. 3. Форма представления  информации

     Адекватность  информации – это степень соответствия реальному объективному состояния дела. Неадекватная информация может образоваться при создании новой информации на основе неполных и недостоверных данных.

      Доступность информации – мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации.

     Актуальность информации – это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревающая информация может приводить к ошибочным решениям.

     Количество информации

     Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.

     Если  в результате получения сообщения  достигается полная ясность в  каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

     Приведенные рассуждения показывают, что между  понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

     Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

     Приведенный пример относится к группе событий, применительно к которым может  быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit — двоичная единица).

     Бит – минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

     Рассмотрим  систему из двух электрических лампочек, которые независимо друг от друга  могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа А 0 0 1 1
Лампа В 0 1 0 1

     Чтобы получить полную информацию о состоянии  системы, необходимо задать два вопроса  типа «да-нет» – по лампочке А и  лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы – 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.

     Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N, где i — количество информации в битах; N – число возможных состояний. Ту же формулу можно представить иначе: N =2i.

Информационная  революция

     Для того чтобы показать, что это не преувеличение, и мы действительно вступаем в новую информационную эпоху, рассмотрим график, который показывает изменение со временем относительной доли занятых в трех основных секторах общественного производства: сельском хозяйстве, промышленности и нематериальной сфере управлении и обработки информации.

     В эпоху средневековья основная часть  населения была занята в аграрном секторе, промышленные мануфактуры  были неразвиты, а сфера духовной жизни была представлена дворянством, немногочисленным чиновничеством и служителями церкви.

Лекция_2.doc

— 120.50 Кб (Просмотреть файл, Скачать файл)

Лекция_3.doc

— 140.00 Кб (Просмотреть файл, Скачать файл)

Лекция_4.doc

— 374.00 Кб (Просмотреть файл, Скачать файл)

Лекция_5.doc

— 160.00 Кб (Просмотреть файл, Скачать файл)

Лекция_6.doc

— 116.50 Кб (Просмотреть файл, Скачать файл)

Лекция_7.doc

— 85.50 Кб (Просмотреть файл, Скачать файл)

Лекция_8.doc

— 42.50 Кб (Просмотреть файл, Скачать файл)

Лекция_9.doc

— 36.00 Кб (Просмотреть файл, Скачать файл)

Лекция_10.doc

— 101.50 Кб (Просмотреть файл, Скачать файл)

Лекция_11.doc

— 61.50 Кб (Просмотреть файл, Скачать файл)

Лекция_12.doc

— 48.50 Кб (Просмотреть файл, Скачать файл)

Лекция_13.doc

— 67.50 Кб (Просмотреть файл, Скачать файл)

Лекция_14.doc

— 81.00 Кб (Просмотреть файл, Скачать файл)

Лекция_15.doc

— 64.50 Кб (Просмотреть файл, Скачать файл)

Лекция_18.doc

— 318.50 Кб (Просмотреть файл, Скачать файл)

Информация о работе Лекции по "Программному обеспечению"