Понятие криптологии

Автор работы: Пользователь скрыл имя, 22 Октября 2012 в 00:51, реферат

Описание работы

Эффективная организация обмена информации приобретает все большее значение как условие успешной практической деятельности людей. Объем информации необходимый для нормального функционирования современного общества растет примерно пропорционально квадрату развития промышленного потенциала. Доля рабочей силы занятой вопросами обеспечения информацией начинает превышать долю рабочей силы занятой непосредственно в производстве. Поэтому науки, изучающие структуру и закономерности протекания информационных процессов, к числу которых относится и теория информации в такой ситуации становятся исключительно актуальными.

Содержание работы

Введение
Понятие криптологии……………………………………………….….……..4
Базовые понятия теории информации……………………………….………5
Теория Шеннона………………………………………………………………6
Надежность криптосистем…………………………………………………..12
Информационная энтропия………………………………………………….13
Условная энтропия…………………………………………………………...14
Энтропия и неопределенность………………………………………………14
Заключение…………………………………….……………………………...16
Литература

Файлы: 1 файл

Курсовик Криптология.doc

— 91.50 Кб (Скачать файл)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Содержание

 

Введение

Понятие криптологии……………………………………………….….……..4

Базовые понятия теории информации……………………………….………5

Теория Шеннона………………………………………………………………6

Надежность  криптосистем…………………………………………………..12

Информационная  энтропия………………………………………………….13

Условная энтропия…………………………………………………………...14

Энтропия и  неопределенность………………………………………………14

Заключение…………………………………….……………………………...16

Литература

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введение

Эффективная организация  обмена информации приобретает все большее значение как условие успешной практической деятельности людей. Объем информации необходимый для нормального функционирования современного общества растет примерно пропорционально квадрату развития промышленного потенциала. Доля рабочей силы занятой вопросами обеспечения информацией начинает превышать долю рабочей силы занятой непосредственно в производстве. Поэтому науки, изучающие структуру и закономерности протекания информационных процессов, к числу которых относится и теория информации в такой ситуации становятся исключительно актуальными.

 

 

Понятие криптологии

Термин "криптология" происходит от греческих корней, означающих "тайный" и "слово", и используется для обозначения всей области  секретной связи. Криптография довольно четко делится на две части: криптографию (шифрование) и криптоанализ.

Криптография - совокупность методов и средств  семантического преобразования информации в целях обеспечения секретности  ее содержания. Другими словами, криптограф пытается найти методы обеспечения секретности и (или) аутентичности (подлинности) сообщений. Криптоаналитик пытается выполнить обратную задачу, раскрывая шифр или подделывая кодированные сигналы таким образом, чтобы они были приняты как подлинные.

Исходное сообщение, к которому криптограф применяет свое искусство, называется открытым текстом сообщения, или просто открытым текстом, а результат его работы - шифрованным текстом сообщения - шифртекстом, или криптораммой. Для управления процессом шифрования криптограф всегда использует секретный ключ. Часто (но не всегда) он передает этот секретный ключ каким-либо надежным способом (например, в "дипломате", пристегнутом наручниками к реку курьера) человеку (или машине), которому он собирается позднее послать криптограмму, составленную с использованием этого ключа.

Базовые понятия теории информации

Информация — нематериальная сущность, при помощи которой с любой точностью можно описывать реальные (материальные), виртуальные (возможные) и понятийные сущности. Информация — противоположность неопределенности.

Канал связи — это среда передачи информации, которая характеризуется в первую очередь максимально возможной для нее скоростью передачи данных (емкостью канала связи).

Шум — это помехи в канале связи при передаче информации.

Кодирование — преобразование дискретной информации одним из следующих способов: шифрование, сжатие, защита от шума.

Общая схема  передачи информации изображена на рис. 3.

Емкость канала связи без шума можно приблизительно вычислить, зная максимальную частоту волновых процессов, допустимую в этом канале. Можно считать, что скорость передачи данных может быть не меньше, чем эта частота. Например, при предельной частоте, равной 1000 Гц, можно обеспечить скорость передачи данных не меньше 1 Кбод.

 

Теория  информации тесно связана с такими разделами математики как теория вероятностей и математическая статистика, а также прикладная алгебра, которые предоставляют для нее математический фундамент. С другой стороны теория информации исторически и практически представляет собой математический фундамент теории связи. Часто теорию информации вообще рассматривают как одну из ветвей теории вероятностей или как часть теории связи. Таким образом, предмет “Теория информации” весьма узок, т.к. зажат между “чистой” математикой и прикладными (техническими) аспектами теории связи.

Теория  информации представляет собой математическую теорию, посвященную измерению информации, ее потока, “размеров” канала связи и т.п., особенно применительно к радио, телеграфии, телевидению и к другим средствам связи. Первоначально теория была посвящена каналу связи, определяемому длиной волны и частотой, реализация которого была связана с колебаниями воздуха или электромагнитным излучением. Обычно соответствующий процесс был непрерывным, но мог быть и дискретным, когда информация кодировалась, а затем декодировалась. Кроме того, теория информации изучает методы построения кодов, обладающих полезными свойствами.

 

Теория  Шеннона

В основу теории  информации  положен  предложенный  К.Шенноном  метод исчислений количества новой (непредсказуемой) и  избыточной предсказуемой) информации, содержащейся в сообщениях, передаваемых по  каналам  технической связи. Предложенный Шенноном метод измерения количества информации  оказался настолько универсальным, что его применение не ограничивается теперь  узкими рамками чисто технических приложений. Вопреки мнению  самого  К.Шеннона,  предостерегавшего  ученых  против поспешного распространения предложенного им  метода  за  пределы  прикладных задач техники связи, этот метод стал находить все более широкое  примение  в исследованиях и физических, и биологических, и социальных систем . Ключом к новому пониманию сущности феномена  информации  и  механизма информационных процессов послужила  установленная  Л.Бриллюэном  взаимосвязь информации  и  физической  энтропии.  Эта  взаимосвязь  была   первоначально заложена в самый  фундамент  теории  информации,  поскольку  для  исчисления

количества  информации  Шеннон  предложил  использовать заимствованную   из статистической термодинамики вероятную функцию энтропии. Многие ученые (начиная с самого К.Шеннона) склонны были рассматривать такое заимствование как чисто  формальный  прием.  Л.Бриллюэн  показал,  что между вычисленным  согласно  Шеннону  количеством  информации  и  физической энтропии существует не формальная, а содержательная связь.

 

В статистической физике  с  помощью  вероятностной  функции  энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости)  приближаются  к равновероятным,  а  энтропия  при  этом  стремится   к   максимальной величине.

 

Благодаря теории информации стало очевидно,  что  с  помощью  той  же самой функции можно исследовать и такие далекие  от  состояния  максимальной энтропии системы, как, например, письменный текст. Еще один важный вывод заключается в том, что с помощью вероятностной  функции  энтропии  можно  анализировать  все стадии  перехода  системы  от  состояния  полного   хаоса,   которому соответствуют равные значения вероятностей  и  максимальное  значение энтропии,   к   состоянию   предельной    упорядоченности    (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.

 

Данный  вывод  оказывается  в  равной  мере  справедливым  для  таких

несходных по своей  природе систем, как газы, кристаллы,  письменные  тексты, биологические организмы или сообщества и др. При этом,  если  для  газа  или  кристалла  при  вычислении  энтропии сравнивается только микросостояние  (т.е.  состояние атомов  и молекул)  и макросостояние этих систем (т.е. газа или  кристалла  как  целого),  то  для систем   иной   природы   (биологических,   интеллектуальных,    социальных) вычисление  энтропии  может  производится  на  том  или   ином   произвольно выбранном уровне. При этом  вычисляемое  значение  энтропии  рассматриваемой системы и количество  информации,  характеризующей  степень  упорядоченности данной системы и равное разности между  максимальным  и  реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня,  т.е.  тех  элементов,  которые  в  своей  совокупности образуют эти системы. Другими словами, количество сохраняемой в структуре системы информации пропорционально степени отклонения системы от  состояния  равновесия,  обусловленного сохраняемым в структуре системы порядком.

 

Сам того не подозревая, Шеннон вооружил  науку  универсальной  мерой, пригодной в принципе (при условии выявления значений всех  вероятностей)  для оценки степени упорядоченности всех существующих в мире систем. Определив  введенную   Шеноном   информационную   меру   как   меру упорядоченности движения, можно установить взаимосвязь  информации  и энергии,  считая  энергию  мерой  интенсивности  движения.  При этом количество сохраняемой в структуре систем информации  пропорционально суммарной энергии внутренних связей этих систем.

 

Одновременно  с  выявлением  общих  свойств  информации  как  феномена обнаруживаются и принципиальные различия  относящихся  к различным уровням сложности информационных систем. Так, например, все физические объекты, в отличие от биологических, не обладают  специальными  органами  памяти,   перекодировки   поступающих   из внешнего мира сигналов,  информационными  каналами  связи.  Хранимая  в  них информация как бы «размазана» по всей их структуре. Вместе с  тем,  если  бы кристаллы  не  способны  были  сохранять  информацию   в   определяющих   их упорядоченность  внутренних  связях,  не  было  бы   возможности   создавать искусственную память и предназначенные для обработки информации  технические устройства на основе кристаллических структур. Вместе с тем необходимо учитывать, что  создание  подобных  устройств стало возможным  лишь  благодаря  разуму  человека,  сумевшего  использовать элементарные  информационные  свойства  кристаллов  для  построения  сложных информационных систем. Простейшая биологическая система превосходит по своей сложности самую совершенную из созданных человеком  информационных  систем.  Уже  на  уровне простейших  одноклеточных  организмов  задействован   необходимый   для   их размножения   сложнейший    информационный    генетический    механизм.    В многоклеточных организмах  помимо  информационной  системы  наследственности действуют специализированные  органы  хранения  информации  и  ее  обработки (например, системы, осуществляющие перекодирование поступающих  из  внешнего мира зрительных и слуховых сигналов перед  отправкой  их  в  головной  мозг, системы  обработки  этих  сигналов  в  головном  мозге).   Сложнейшая   сеть информационных коммуникаций (нервная система)  пронизывает  и  превращает  в целое весь многоклеточный организм.

Уже на уровне биологических  систем возникают проблемы учета  ценности и смысла используемой этими системами информации. Еще в большей  мере  такой учет    необходим    для    анализа    функционирования интеллектуальных информационных систем. Глубокое осознание специфики биологических и интеллектуальных  систем позволяет  выявить  те  границы,  за  пределами  которых   утрачивает   свою компетентность разработанный  современной  наукой  информационно энтропийный подход.

Определить  эти границы Шеннону  пришлось  на  самом  начальном  этапе создания теории информации, поскольку без  этого  нельзя  было использовать количественную меру  информации  для  оценки  письменных  текстов  и  других созданных разумом  человека  информационных  систем.  Именно  с  этой  целью Шеннон  делает  оговорку  о  том,  что  предложенный  им  метод   исчисления информации письменных текстов игнорирует такие же их неотъемлемые  свойства, как смысл и ценность содержащихся в них сообщений. Так, например, при подсчете  количества  информации,  содержащейся  в таких двух сообщениях, как «очередную партию Каспаров играет  белыми»  и  «у гражданина Белова родился сын» получится одна и та же величина – 1 бит.  Нет сомнения, что два этих сообщения  несут  разный  смысл  и  имеют  далеко  не равнозначную ценность для  гражданина  Белова.  Однако,  как  было  отмечено выше, оценка  смысла  и ценности  информации   находится    за   пределами компетенции теории информации  и  поэтому  не  влияет  на  подсчитываемое  с помощью формулы Шеннона количество бит.

 

Игнорирование смысла и ценности информации не помешало Шеннону решать прикладные задачи, для которых  предназначалась  первоначально  его  теория: инженеру по технике связи вовсе не обязательно  вникать  в  суть  сообщений, передаваемых по линии связи. Его  задача  заключается  в  том,  чтобы  любое подобное сообщение передавать как  можно  скорее,  с  наименьшими  затратами средств (энергии, диапазона используемых частот)  и,  по  возможности,  безо всяких  потерь.  И  пусть  тот,   кому   предназначена   данная   информация (получатель сообщений), вникает в смысл, определяет  ценность,  решает,  как использовать ту информацию, которую он получил. Такой сугубо прагматичный подход позволил Шеннону ввести  единую,  независящую  от  смысла  и  ценности,  меру  количества  информации,   которая оказалась пригодной для  анализа  всех  обладающих  той или иной  степенью упорядоченности систем. После основополагающих работ Шеннона  начали  разрабатываться  основы смысловой (семантической)  и  ценностной  (прагматической,  аксиологической)

информационных  теорий .

 

 

Однако ни одной из этих теорий  и  предлагаемых  их  авторами  единиц измерения ценности или смысла не суждено было приобрести  такую  же  степень универсальности, какой обладает мера, которую ввел в науку Шеннон. Дело в том, что количественные оценки смысла  и  ценности  информации могут производится только после предварительного соглашения о  том,  что  же именно  в  каждом  конкретном  случае  имеет  для  рассматриваемых   явлений ценность и смысл. Нельзя одними и  теми  же  единицами   измерить   ценность информации, содержащейся, скажем, в законе Ома и в признании любви.  Иными словами,  критерии  смысла  и  ценности   всегда   субъективны,   а   потому применимость их ограничена, в то  время  как  мера,  предложенная Шенноном, полностью  исключает  субъективизм  при   оценке   степени   упорядоченности структуры исследуемых систем. Так что же характеризует подсчитанная  по  формуле  Шеннона  величина энтропии текста, выражаемая  количеством  бит?  Только  лишь  одно  свойство этого текста - степень его упорядоченности или , иными словами, степень  его отклонения от состояния полного  хаоса,  при  котором  все  буквы  имели  бы равную вероятность, а текст превратился бы в бессмысленный набор букв. Упорядоченность текста (или любой другой исследуемой  системы)  будет тем больше, чем  больше  различие  вероятностей  и  чем  больше  вероятность последующего события будет зависеть от вероятностей  предыдущих  событий. При этом,

согласно негэнтропийному  принципу информации  количество  информации,

Информация о работе Понятие криптологии