Кодирование и хранение символьной информации символов и строк. Кодировка символов ASCII

Автор работы: Пользователь скрыл имя, 10 Февраля 2012 в 19:53, курсовая работа

Описание работы

Объект исследования - символьная и строковая информация.
Предмет - кодирование и хранение символьной информации символов и строк. Кодировка символов ASCII.
Цель – проанализировать кодирование, хранение символьной информации символов и строк и кодировку символов ASCII в учебной литературе по информатике.

Содержание работы

Введение…………………………………………………………………………...3
Глава 1. Информация……………………………………………………………..6
Понятие информации и данных………………………………………...6
Виды и свойства информации…………………………………………11
Информационные процессы…………………………………………...15
Информационные технологии…………………………………………17
Информационные системы…………………………………………….21
Обработка информации. Алгоритмы.…………………………...…….25
Глава 2. Кодирование и хранение символьной информации……………...…31
2.1. Кодирование информации………………………………………………..31
2.2. Классификация кодов……………………………………………………..32
2.3. Кодирование символьной информации…….……………………………34
2.4. Способы представления символьных данных в ЭВМ………………….41
2.5. Кодирование текстовой информации……………………………………43
2.6. Хранение символьной информации……………………………………..46
Заключение……………………………………………………………………….49
Глоссарий………………………………………………………………………...50
Список используемой литературы……………………………………………...54

Файлы: 1 файл

Курсовая работа по предмету Архитектура компьютера на тему Кодирование и хранение символьной информации символов и строк. Кодировка символов ASCII.docx

— 149.42 Кб (Скачать файл)

Министерство  образования и  науки Российской Федерации

Федеральное агентство по образованию

Российский  Государственный  Социальный Университет 

Филиал  РГСУ в городе Электросталь

Специальность «Информатика» 
 
 
 
 
 
 
 

Курсовая   работа

по дисциплине:

«Архитектура  компьютера» 

на тему:

«Кодирование  и хранение символьной информации символов и строк. Кодировка  символов ASCII» 
 
 
 
 

                                                               Работу выполнила:

                                                                    студентка группы  ИНФ-З-5

                                                                    Самусенко  Е. С.

                                                                 Проверила:

                                                           К.ф-м. н. Балакший Рената Александровна 
 
 

                                                                           
 
 
 
 
 

г. Электросталь

2012 г

Содержание

Введение…………………………………………………………………………...3

Глава 1. Информация……………………………………………………………..6

    1. Понятие информации и данных………………………………………...6
    2. Виды и свойства информации…………………………………………11
    3. Информационные процессы…………………………………………...15
    4. Информационные технологии…………………………………………17
    5. Информационные системы…………………………………………….21
    6. Обработка информации. Алгоритмы.…………………………...…….25

Глава 2. Кодирование и хранение символьной информации……………...…31

  2.1. Кодирование информации………………………………………………..31

   2.2. Классификация кодов……………………………………………………..32

  2.3. Кодирование символьной информации…….……………………………34

  2.4. Способы представления символьных данных в ЭВМ………………….41

   2.5. Кодирование текстовой информации……………………………………43

   2.6. Хранение символьной информации……………………………………..46

Заключение……………………………………………………………………….49

Глоссарий………………………………………………………………………...50

Список  используемой литературы……………………………………………...54

 
 
 
 
 
 
 
 
 
 
 

Введение

       Люди ежедневно общаются друг с другом, передают в той или иной форме какие-то сведения, осмысливают полученные факты, делают определённые умозаключения.

     Существует несколько  взглядов  на то, что принято считать  информацией.

  1. Информация техническая, которая передаётся по телефонным линиям и отображается на экранных радиолокаторов. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.
  2. Информация семантическая, то есть смысловая, которая содержится, к примеру, в литературном произведении. В такой информации предлагаются различные количественные оценки и строятся математические теории.

    Информацияэто физическая величина, такая же, как энергия или скорость. Определённым образом информация описывает процессы, происходящие в естественных физических и в искусственно созданных системах.

    Бурное развитие науки и промышленности  в XX – XXI вв., неудержимый рост объёмов поступающей информации привели к тому, что человек оказался не в состоянии воспринимать и перерабатывать всё ему предназначенное.

    Возникла необходимость классифицировать поступления по темам, организовывать их хранение, доступ к ним, понять закономерности движения в различных изданиях и т.д. Исследования, позволяющие разрешить возникновение проблемы, стали называть информатикой.  Информатика – это комплексное научное направление, имеющее междисциплинарный характер и изучающее общие свойства информации и информационных процессов, а также методы и способы рациональной организации этих процессов с использованием средств вычислительной техники и связи в различных сферах человеческой деятельности (социальной, технической, природной).

   Говоря об информатике как  науке, необходимо иметь в виду, что существует и более широкое  понимание этого термина. Информатику рассматривают как сферу (область) деятельности, связанную с получением, обработкой, хранением, распространением информации, а также как отрасль народного хозяйства (информационная индустрия), занимающуюся производством средств компьютерной  техники и связи, программных продуктов, разработкой и внедрением информационно-коммуникационных средств технологий и систем, созданием и сопровождением информационных ресурсов, оказанием информационных услуг.

     В нашей стране информатика изначально понималась как  научная дисциплина, изучающая структуру и общие свойства научной информации, а также закономерности процессов научной коммуникации. В центре её внимания находились документальные  информационные системы библиотечного типа и деятельности по сбору, переработке, хранению и распространению научно-технической информации. Вычислительные машины и процессы обработки информации с их помощью изучались в рамках вычислительной техники или, в более широком контексте, кибернетики. В конце 70-х гг. XX в. Академик В. М. Глушков предложил использовать понятие «информатика» для обозначения новой области науки, связанной с разработкой, созданием оценкой, использованием и материально техническим обслуживанием систем обработки информации, включая машины и оборудование, материальное обеспечение, организационные и людские аспекты, а также комплекс их  промышленного, коммерческого административного и социального воздействия этот подход получил своё законченное выражение в 1983 г., когда было организовано Отделение информатики, вычислительной техники и автоматизации Академии наук СССР. Информатика определялась как комплексная научная и инженерная дисциплина, изучающая все разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики.

    Объект исследования - символьная и строковая информация.

    Предмет - кодирование и хранение символьной информации символов и строк. Кодировка символов ASCII.

    Цель проанализировать кодирование, хранение символьной информации символов и строк и кодировку символов ASCII  в учебной литературе по информатике.

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Глава 1. Информация

    1. Понятие информации и данных

    Слово «информация» происходит от латинского слова information, что в переводе означает сведения, разъяснения, ознакомления. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

    В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием.  Данное понятие используется в различных науках (информатике, кибернетики, биологии, физике и др.),  при этом в каждой науке понятие «информация» связано с различными системами понятий.

    Информация в физике. В физике мерой беспорядка, хаоса для термодиначеской системы является энтропия системы, тогда как информация (антиэнтропия) является  мерой упорядоченности и сложности системы.

    Энтропия - это мера неопределенности дискретного источника информации. Формула энтропии была предложена К. Шенноном:

 

      

   Некоторые свойства энтропии

  1. Энтропия  является вещественной и неотрицательной  величиной, т.к. для любого значения pi (i=1,…,N), которое изменяется в пределах от 0 до 1, log pi отрицателен (при 0 – не существует) и, следовательно, - pi∙log pi – положительно.
  2. Энтропия – величина ограниченная. Для слагаемых - pi∙log pi в диапазоне  0 < pi < 1 ограниченность очевидна, а предел для              - pi∙log pi при pi → 0, по правилу Лопиталя,  равен 0.
  3. Энтропия равна нулю, если вероятность одного из состояний источника равна 1.
  4. Энтропия максимальна, когда все состояния источника равновероятны, что доказывается использованием метода неопределенных множителей Лагранжа.
  5. Энтропия источника u с двумя состояниями u1 и u2 изменяется  от 0 до 1, достигая максимума при равенстве их вероятностей:

    P (u1) = (p) = p (u2) = 1- p = 0,5 

  1. Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропий исходных источников, например, для двух независимых источников a и b Н (aÙb) = Н (a) + Н(b)

    По мере увеличения сложности   системы величина энтропии  уменьшается,  и величина  информации  увеличивается.  Процесс увеличения  информации  характерен  для открытых, обменивающих  веществом  и энергией с  окружающей средой, саморазвивающихся  систем живой природы (белковых  молекул, организмов, популяций животных  и так далее).

    Таким образом, в физике информация  рассматривается как антиэнтропия  или энтропия с обратным знаком.

    Информация в биологии. В биологии, которая изучает живую природу, понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмов об окружающей среде.

    Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передаётся по наследству и хранится во всех клетках живых организмов. Гены передают собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки.

    Информация в кибернетике. В кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование  технического устройства зависит от процесса управления, благодаря которым поддерживаются в необходимых пределах значениях их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.

    Все физические объекты находятся в состоянии  непрерывного движения и изменения, сопровождающегося обменом энергией и переходом её из одной формы в другую. Все виды энергетического обмена сопровождаются появлением сигналов, несущих в себе сведения о некотором реальном объекте, явлении или процессе, который называется информационным объектом. Сигналы могут воздействовать на другие физические объекты, вызывая определённые изменения их свойств. Эти изменённые свойства объекта также содержат в себе сведения об отражаемом информационном объекте и представляемом тем самым результат его отражения. Такие изменения можно наблюдать, а при необходимости измерять разными способами. При этом образуются новые сигналы, воздействующие уже на какой-то другой объект. После окончания воздействия сигнала, на объект его изменённые свойства могут либо зафиксироваться и сохраняться неизменными достаточно длительное время, либо вернуться к исходному или какому-то другому состоянию, то есть фиксироваться. Явление зафиксированного изменения свойств физического объекта (объекта-регистратора) под воздействием сигнала, несущего сведения об информационном объекте, называется регистрацией сигнала. Зарегистрированные сигналы называются данными (рисунок 1).

Информация о работе Кодирование и хранение символьной информации символов и строк. Кодировка символов ASCII