Алгоритмы сжатия данных

Автор работы: Пользователь скрыл имя, 27 Декабря 2011 в 15:13, курсовая работа

Описание работы

Основоположником науки о сжатии информации принято считать Клода Шеннона. Его теорема об оптимальном кодировании показывает, к чему нужно стремиться при кодировании информации и на сколько та или иная информация при этом сожмется. Кроме того, им были проведены опыты по эмпирической оценке избыточности английского текста. Он предлагал людям угадывать следующую букву и оценивал вероятность правильного угадывания. На основе ряда опытов он пришел к выводу, что количество информации в английском тексте колеблется в пределах 0.6 — 1.3 бита на символ.

Содержание работы

Введение
Общие сведения
Энтропия и количество информации
Комбинаторная, вероятностная и алгоритмическая оценка количества информации
Моделирование и кодирование
Некоторые алгоритмы сжатия данных
Алгоритм LZ77
Алгоритм LZ78-LZW84
Алгоритм PPM
BWT - преобразование и компрессор
Кодирование Хаффмана
Арифметическое кодирование
Алгоритм арифметического кодирования
Реализация алгоритма арифметического кодирования
Реализация модели
Доказательство правильности декодирования
Приращаемая передача и получение
Отрицательное переполнение
Переполнение и завершение
Адаптивная модель для арифметического кодирования
Эффективность сжатия
Заключение
Список литературы

Файлы: 1 файл

Курсовая работа.docx

— 314.92 Кб (Скачать файл)

  1) смещения (offset) от начала буфера, i;

  2) длины  соответствия, или совпадения (match length), j;

  Смещение  и длина соответствия играют роль указателя (ссылки), однозначно определяющего  фразу. Дополнительно в выходной поток записывается символ s, непосредственно  следующий за совпавшей строкой буфера.

  Таким образом, на каждом шаге кодер выдает описание трех объектов: смещения и длины  соответствия, образующих код фразы, равной обработанной строке буфера, и  одного символа s (литерала). Затем окно смещается на j+1 символов вправо и  осуществляется переход к новому циклу кодирования. Величина сдвига объясняется тем, что мы реально  закодировали именно j+1 символов: j с  помощью указателя на фразу в  словаре и 1(? i) с помощью тривиального копирования. Передача одного символа  в явном виде позволяет разрешить  проблему обработки еще ни разу не виденных символов, но существенно  увеличивает размер сжатого блока. 
 
 
 

  Алгоритм LZ78-LZW84 

  Алгоритм LZ78, предложенный в 1978 г. Лемпелом и  Зивом, нашел свое практическое применение только после реализации LZW84, предложенной Велчем в 1984 г.

  Словарь является расширяющимся (expanding). Первоначально в нем содержится только 256 строк длиной в одну букву-все коды ASCII. В процессе работы словарь разрастается до своего максимального объема |Vmax| строк (слов). Обычно, объем словаря достигает нескольких десятков тысяч слов. Каждая строка в словаре имеет свою известную длину и этим похожа на привычные нам книжные словари и отличается от строк LZ77, которые допускали использование подстрок. Таким образом, количество слов в словаре точно равно его текущему объему. В процессе работы словарь пополняется по следующему закону:

  1. В словаре  ищется слово str, максимально совпадающее с текущим кодируемым словом в позиции pos исходного текста. Так как словарь первоначально не пустой, такое слово всегда найдется;

  2. В выходной  файл помещается номер найденного  слова в словаре position и следующий символ из входного текста В (на котором обнаружилось различие) - <position,B>. Длина кода равна |position|+|B||=[logVmax]+8 (бит);

  3. Если  словарь еще не полон, новая  строка strВ добавляется в словарь по адресу last_position, размер словаря возрастает на одну позицию;

  4. Указатель  в исходном тексте pos смещается на |strB|=|str|+l байт дальше к символу, следующему за В.

  В таком  варианте алгоритм почти не нашел  практического применения и был  значительно модернизирован. Изменения  коснулись принципов управления словарем (его расширения и обновления) и способа формирования выходного кода:

  Так как словарь увеличивается постепенно и одинаково для кодировщика и декатировщика, для кодирования позиции нет необходимости использовать [logVmax] бит, а можно брать лишь [logV] бит, где V-текущий объем словаря.

  Самая серьезная  проблема LZ78-переполнение словаря: если словарь полностью заполнен, прекращается его обновление и процесс сжатия может быть заметно ухудшен (метод FREEZE). Отсюда следует вывод-словарь  нужно иногда обновлять. Самый простой  способ как только словарь заполнился его полностью обновляют. Недостаток очевиден кодирование начинается на пустом месте, как бы с начала, и пока словарь не накопится сжатие будет незначительным, а дальше-замкнутый цикл опять очистка словаря!.. Поэтому предлагается словарь обновлять не сразу после его заполнения, а только после того, как степень сжатия начала падать (метод FLUSH). Более сложные алгоритмы используют два словаря, которые заполняются синхронно, но с задержкой на |V|/2 слов один относительно другого. После заполнения одного словаря, он очищается, а работа переключается на другой (метод SWAP). Еще более сложными являются эвристические методы обновления словарей в зависимости от частоты использования тех или иных слов (LRU, TAG).

  Выходной  код также формируется несколько  иначе (сравните с предыдущим описанием):

  1. В словаре  ищется слово str, максимально совпадающее с текущим кодируемым словом в позиции pos исходного текста;

  2. В выходной  файл помещается номер найденного  слова в словаре <positior>. Длина кода равна |position|=[logV] (бит);

  3. Если  словарь еще не полон, новая  строка strВ добавляется в словарь по адресу last_position, размер словаря возрастает на одну позицию;

  4. Указатель  в исходном тексте pos смещается на |str| байт дальше к символу В. 

  Алгоритм PPM 

  Алгоритм PPM (prediction by partial matching) - это метод контекстно-ограниченного моделирования, позволяющий оценить вероятность символа в зависимости от предыдущих символов. Строку символов, непосредственно предшествующую текущему символу, будем называть контекстом. Модели, в которых для оценки вероятности используются контексты длиной не более чем N, принято называть моделями порядка N.

  Вероятность символа может быть оценена в  контекстах разных порядков. Например, символ "о" в контексте "to be or not t" может быть оценен в контексте первого порядка «t», в контексте второго порядка «_t», в контексте третьего порядка «t_t» и т.д. Он также может быть оценен в контексте нулевого порядка, где вероятности символов не зависят от контекста, и в контексте минус первого порядка, где все символы равновероятны. Контекст минус первого порядка используется для того, чтобы исключить ситуацию, когда символ будет иметь нулевую вероятность и не сможет быть закодирован. Это может случиться, если вероятность символа не будет оценена ни в одном из контекстов (что возможно, если символ в них ранее не встречался).

  Существуют  два основных подхода к вычислению распределения вероятностей следующего символа на основе вероятностей символов в контекстах. Первый подход называется «полное перемешивание». Он предполагает назначение весов контекстам разных порядков и получение суммарных  вероятностей сложением вероятностей символов в контекстах, умноженных на веса этих контекстов. Применение такого подхода ограничено двумя факторами. Во-первых, не существует быстрой реализации данного алгоритма. Во-вторых, не разработан эффективный алгоритм вычисления весов  контекстов. Примитивные же подходы  не обеспечивают достаточно высокой  точности оценки и, как следствие, степени сжатия.

  Второй  подход называется «методом исключений». При этом подходе сначала делается попытка оценить символ в контексте  самого высокого порядка. Если символ кодируется, алгоритм переходит к  кодированию следующего символа. В  противном случае кодируется «уход» и предпринимается попытка закодировать символ в контексте меньшего порядка. И так далее, пока символ не будет закодирован. 

  BWT - преобразование и компрессор 

  BWT-компрессор (Преобразование Барроуза – Уиллера) - сравнительно новая и революционная техника для сжатия информации (в особенности-текстов), основанная на преобразовании, открытом в 1983 г. и описанная в 1994 г.. BWT является удивительным алгоритмом. Во-первых, необычно само преобразование, открытое в научной области, далекой от архиваторов. Во-вторых, даже зная BWT, не совсем ясно, как его применить к сжатию информации. В-третьих, BW преобразование чрезвычайно просто. И, наконец, сам BWT компрессор состоит из "магической" последовательности нескольких рассмотренных ранее алгоритмов и требует, поэтому, для своей реализации самых разнообразных программных навыков.

  BWT не сжимает  данные, но преобразует блок данных  в формат, исключительно подходящий  для компрессии. Рассмотрим его  работу на упрощенном примере.  Пусть имеется словарь V из N символов. Циклически переставляя символы  в словаре влево, можно получить N различных строк длиной N каждая. В нашем примере словарь-это  слово V="БАРАБАН" и N=7. Отсортируем  эти строки лексикографически и запишем одну под другой:

  F L

  АБАНБАР

  АНБАРАБ

  АРАБАНБ

  БАНБАРА

  БАРАБАН

  НБАРАБА

  РАБАНБА 

  Далее нас  будут интересовать только первый столбец F и последний столбец L. Оба они  содержат все те же символы, что и  исходная строка (словарь). Причем, в  столбце F они отсортированы, а каждый символ из L является префиксом для соответствующего символа из F.

  Фактический "выход" преобразования состоит  из строки L="РББАНАА" и первичного индекса I, показывающего, какой символ из L является действительным первым символом словаря V (в нашем случае I=2). Зная L и I можно восстановить строку V.

 

  Кодирование Хаффмана 

  Этот алгоритм кодирования информации был предложен  Д.А. Хаффманом в 1952 году. Идея алгоритма  состоит в следующем: зная вероятности  вхождения символов в сообщение, можно описать процедуру построения кодов переменной длины, состоящих  из целого количества битов. Символам с большей вероятностью присваиваются  более короткие коды. Коды Хаффмана имеют уникальный префикс, что и  позволяет однозначно их декодировать, несмотря на их переменную длину.

  Классический  алгоритм Хаффмана на входе получает таблицу частот встречаемости символов в сообщении. Далее на основании  этой таблицы строится дерево кодирования  Хаффмана (Н-дерево). Алгоритм построения Н-дерева прост и элегантен.

  1. Символы  входного алфавита образуют список  свободных узлов. Каждый лист  имеет вес, который может быть  равен либо вероятности, либо  количеству вхождений символа в сжимаемое сообщение.

  2. Выбираются  два свободных узла дерева с наименьшими весами.

  3. Создается  их родитель с весом, равным их суммарному весу.

  4. Родитель  добавляется в список свободных  узлов, а двое его детей удаляются  из этого списка.

  5. Одной  дуге, выходящей из родителя, ставится  в соответствие бит 1, другой - бит 0.

  6. Шаги, начиная  со второго, повторяются до  тех пор, пока в списке свободных  узлов не останется только  один свободный узел. Он и будет  считаться корнем дерева.

  Допустим, у нас есть следующая таблица  частот:

  15 7 6 6 5

  А Б В Г Д

  На первом шаге из листьев дерева выбираются два с наименьшими весами —  Г и Д. Они присоединяются к  новому узлу-родителю, вес которого устанавливается в 5+6 = 11. Затем узлы Г и Д удаляются из списка свободных. Узел Г соответствует ветви 0 родителя, узел Д — ветви 1.

  На следующем  шаге то же происходит с узлами Б и В, так как теперь эта пара имеет самый меньший вес в дереве. Создается новый узел с весом 13, а узлы Б и В удаляются из списка свободных. После всего этого дерево кодирования выглядит так, как показано на рис. 2.

  

  Рис. 2. Дерево кодирования Хаффмана после  второго шага 

  На следующем  шаге «наилегчайшей» парой оказываются  узлы Б/В и Г/Д. Для них еще раз создается родитель, теперь уже с весом 24. Узел Б/В соответствует ветви 0 родителя, Г/Д—ветви 1.

  На последнем  шаге в списке свободных осталось только два узла — это А и узел (Б/В)/(Г/Д). В очередной раз создается родитель с весом 39 и бывшие свободными узлы присоединяются к разным его ветвям.

  Поскольку свободным остался только один узел, то алгоритм построения дерева кодирования  Хаффмана завершается. Н-дерево представлено на рис.3.

  Рис. 3. Окончательное дерево кодирования  Хаффмана 

  Чтобы определить код для каждого из символов, входящих в сообщение, мы должны пройти путь от листа дерева, соответствующего этому символу, до корня дерева, накапливая биты при перемещении по ветвям дерева. Полученная таким образом последовательность битов является кодом данного  символа, записанным в обратном порядке.

  Дня данной таблицы символов коды Хаффмана будут выглядеть следующим образом.

  А       0

  Б       100

  В       101

  Г       110

  Д       111

  Поскольку ни один из полученных кодов не является префиксом другого, они могут  быть однозначно декодированы при чтений их из потока. Кроме того, наиболее частый символ сообщения А закодирован наименьшим количеством битов, а наиболее редкий символ Д - наибольшим.

  Классический  алгоритм Хаффмана имеет один существенный недостаток. Дня восстановления содержимого  сжатого сообщения декодер должен знать таблицу частот, которой  пользовался кодер. Следовательно, длина сжатого сообщения увеличивается  на длину таблицы частот, которая  должна посылаться впереди данных, что может свести на нет все  усилия по сжатию сообщения. Кроме того, необходимость наличия полной частотной  статистики перед началом собственно кодирования требует двух проходов по сообщению: одного для построения модели сообщения (таблицы частот и  Н-дерева), другого для собственно кодирования.

Информация о работе Алгоритмы сжатия данных