Автор работы: Пользователь скрыл имя, 18 Ноября 2017 в 14:45, реферат
Термин «информация» произошел от латинского слова informatio, которое означает разъяснение, осведомление. Данное понятие является одним из ключевых понятий кибернетики и понимается как совокупность каких-либо сведений или данных. В то же время это понятие относится к фундаментальным, исходным понятиям предельного уровня общности, и, как многие подобные понятия, не имеет общепринятого строго научного определения.
Введение.
Термин «информация» произошел от латинского слова informatio, которое означает разъяснение, осведомление. Данное понятие является одним из ключевых понятий кибернетики и понимается как совокупность каких-либо сведений или данных. В то же время это понятие относится к фундаментальным, исходным понятиям предельного уровня общности, и, как многие подобные понятия, не имеет общепринятого строго научного определения.
Теория информации - наука о статистических процессах передачи информации в технических, природных и социальных системах. Отрасль науки, занимающаяся изучением мер информации и их свойств. Теория информации тесно связана с теорией кодирования, в которой рассматриваются общие проблемы установления соответствия между сообщениями и сигналами, представляющими эти сообщения, а также с теорией обработки сигналов, в которую входит квантование и восстановление квантованных сигналов, а также спектральный анализ сигналов
Методы теории информации использовались с разной степенью плодотворности во многих прикладных областях, включая информатику, языкознание, криптографию, теорию управления, обработку изображений, генетику, психологию, экономику, организацию производства, однако основное значение они имеют для теории систем связи. Возникновение теории информации стимулировало также исследования в области теории вероятностей.
Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Содержание понятия «информация» можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Ральфа Хартли и Клода Шеннона. Первый из них основан на теории множеств и комбинаторике, а второй — на теории вероятностей. В основе всей теории информации лежит открытие, сделанное Ральфом Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. Завершенный и полный вид этой теории придал в 1948 году Клод Шеннон. Большой вклад в дальнейшее развитие и обобщение теории информации внесли отечественные ученые Андрей Николаевич Колмогоров, Александр Александрович Харкевич, Руслан Леонтьевич Стратанович .Недавно германские исследователи советских архивов сообщили о том, что теория, известная сегодня как теория Шеннона, была создана Андреем Николаевичем Колмогоровым еще в 1938 году, но была засекречена, так как использовалась в военных разработках.
Свойства информации:
Также свойства информации можно определить по её потреблению: политическую, химическую, биологическую, техническую, экономическую и т. д. Информация ещё имеет внутренние свойства — внутренняя организация (структура) информации и её объём (количество). Структура информации выделяет отдельные её элементы, которые могут быть и простыми и сложными. Простые элементы не поддаются дальнейшему расчленению; сложные образуются как сочетание различных элементов и представляются информационными совокупностями. Структура информации достаточно сложна и может включать различные комбинации информационных совокупностей, обладающих определённым содержанием. Количество же информации является мерой уменьшения неопределенности знания при получении информационных сообщений. За единицу количества информации принимается бит. Это количество информации, при котором неопределенность — количество вариантов выбора, уменьшается вдвое (это ответ на вопрос, требующий односложный ответ — да или нет). Количество информации равновероятных событий определяется формулой Хартли, в ней процесс получения информации рассматривается как выбор одного сообщения из наперёд заданного множества равновероятных сообщений: I=Log2 N
где I — количество информации, а N — возможное множество сообщений. Логарифм по основанию 2 ввиду того, что подсчёт информации требуется в основном в компьютерной технике, где информация хранится в двоичной системе счисления.
Условно методы обнаружения количества информации можно разделить на пять видов:
Энтропийный, алгоритмический, комбинаторный виды обозначают количественное определение сложности рассматриваемого объекта или явления и опирается на такие свойства информации: полнота, доступность, эргономичность. Семантический вид — описывает содержательность и новизну передаваемого сообщения для получателя (свойства релевантности и адекватности). Прагматический вид обращает внимание на полезность полученного сообщения для пользователя (свойства полноты, своевременности, эргономичности и адекватности).