Моделювання нейронного фільтра в MatLab

Автор работы: Пользователь скрыл имя, 04 Июня 2013 в 15:41, курсовая работа

Описание работы

Идея нейронных сетей родилась в рамках теории искусственного интеллекта, в результате попыток имитировать способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. Структурной единицей, из которойсостоит любая нейронная сеть, является нейрон.
Искусственная нейронная сеть — это некоторая математическая абстракция, способная обучаться на примерах и решать неформализованные задачи.
ИНС представляет собой совокупность искусственных нейронов, организованных слоями. При этом выходы нейронов одного слоя соединяются с входами нейронов другого слоя.

Содержание работы

ВСТУП……………………………………………………………………… 4
АНАЛІЗ ПРЕДМЕТНОЇ ОБЛАСТІ…………………………………… 6
1.1. Опис основних елементів моделі………………………………. 6
1.2. Опис варіантів функціонування системи……………………….. 7
ПОБУДОВА ДІАГРАМ ПРОЕКТОВАНОЇ МОДЕЛІ…………….…… 8
2.1.Створення діаграми варіантів використання……………………… 8
2.2. Створення діаграми послідовності……………………………… 9
2.3. Створення діаграми класів………………………………………… 11
2.4. Створення діаграми активності………………………………. 14
ВИСНОВКИ ТА РЕКОМЕНДАЦІЇ…………………………………... 16
СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ…………………………... 17

Файлы: 1 файл

КУРСОВАЯ.docx

— 165.20 Кб (Скачать файл)

dW = lr*e*pn;

db = lr*e.

При работе с моделями линейных сетей могут  возникнуть ситуации, когда число  настраиваемых параметров недостаточно, чтобывыполнить все условия; в этом случае сеть считается переопределенной. Если число параметров слишком велико, сеть считается недоопределенной. И в том и в другом случае метод наименьших квадратовосуществляет настройку, стремясь минимизировать ошибку сети.

Архитектура однослойной линейной сети полностью определяется задачей, которая должна быть решена, причем число входов сети и число нейронов в слое определяются числом входов и выходов задачи соответственно.

 

    1. Навчаннянейронних мереж

 

Существуют  три парадигмы обучения: "с  учителем", "без учителя" (самообучение) и смешанная. В первом случае нейронная  сеть располагает правильными ответами (выходами сети) на каждый входной пример. Веса настраиваются так, чтобы сеть производила ответы как можно  более близкие к известным  правильным ответам. Усиленный вариант  обучения с учителем предполагает, что известна только критическая  оценка правильности выхода нейронной сети, но не сами правильные значения выхода. Обучение без учителя не требует знания правильных ответов на каждый пример обучающей выборки. В этом случае раскрывается внутренняя структура данных или Корреляции между образцами в системе данных, что позволяет распределить образцы по категориям. При смешанном обучении часть весов определяется посредством обучения с учителем, в то время как остальная получается с помощью самообучения.

Теория  обучения рассматривает три фундаментальных  свойства, связанных с обучением  по примерам: емкость, сложность образцов и вычислительная сложность. Под  емкостью понимается, сколько образцов может запомнить сеть, и какие  функции и границы принятия решений  могут быть на ней сформированы. Сложность образцов определяет число  обучающих примеров, необходимых  для достижения способности сети к обобщению. Слишком малое число  примеров может вызвать "переобученность" сети, когда она хорошо функционирует  на примерах обучающей выборки, но плохо - на тестовых примерах, подчиненных  тому же статистическому распределению. Известны 4 основных типа правил обучения: коррекция по ошибке, машина Больцмана, правило Хебба и обучение методом  соревнования.

  • Правило коррекции по ошибке. При обучении с учителем для каждого входного примера задан желаемый выход d. Реальный выход сети y может не совпадать с желаемым. Принцип коррекции по ошибке при обучении состоит в использовании сигнала (d-y) для модификации весов, обеспечивающей постепенное уменьшение ошибки. Обучение имеет место только в случае, когда перцептрон ошибается. Известны различные модификации этого алгоритма обучения.
  • Обучение Больцмана. Представляет собой стохастическое правило обучения, которое следует из информационных теоретических и термодинамических принципов. Целью обучения Больцмана является такая настройка весовых коэффициентов, при которой состояния видимых нейронов удовлетворяют желаемому распределению вероятностей. Обучение Больцмана может рассматриваться как специальный случай коррекции по ошибке, в котором под ошибкой понимается расхождение Корреляций состояний в двух режимах .
  • Правило Хебба. Самым старым обучающим правилом является постулат обучения Хебба. Хебб опирался на следующие нейрофизиологические наблюдения: если нейроны с обеих сторон синапса активизируются одновременно и регулярно, то сила синаптической связи возрастает. Важной особенностью этого правила является то, что изменение синаптического веса зависит только от активности нейронов, которые связаны данным синапсом. Это существенно упрощает цепи обучения в реализации VLSI.
  • Обучение методом соревнования. В отличие от обучения Хебба, в котором множество выходных нейронов могут возбуждаться одновременно, при соревновательном обучении выходные нейроны соревнуются между собой за активизацию. Это явление известно как правило "победитель берет все". Подобное обучение имеет место в биологических нейронных сетях. Обучение посредством соревнования позволяет кластеризовать входные данные: подобные примеры группируются сетью в соответствии с корреляциями и представляются одним элементом.

При обучении модифицируются только веса "победившего" нейрона. Эффект этого правила достигается  за счет такого изменения сохраненного в сети образца (вектора весов  связей победившего нейрона), при  котором он становится чуть ближе  ко входному примеру. На рис. 3 дана геометрическая иллюстрация обучения методом соревнования. Входные векторы нормализованы  и представлены точками на поверхности  сферы. Векторы весов для трех нейронов инициализированы случайными значениями. Их начальные и конечные значения после обучения отмечены Х  на рис. 3а и 3б соответственно. Каждая из трех групп примеров обнаружена одним из выходных нейронов, чей весовой вектор настроился на центр тяжести обнаруженной группы.

 

Рис. 5

Пример  обучения методом соревнования: (а) перед обучением; (б) после обучения.

 

Можно заметить, что сеть никогда  не перестанет обучаться, если параметр скорости обучения не равен 0. Некоторый  входной образец может активизировать другой выходной нейрон на последующих  итерациях в процессе обучения. Это  ставит вопрос об устойчивости обучающей  системы. Система считается устойчивой, если ни один из примеров обучающей  выборки не изменяет своей принадлежности к категории после конечного  числа итераций обучающего процесса. Один из способов достижения стабильности состоит в постепенном уменьшении до 0 параметра скорости обучения. Однако это искусственное торможение обучения вызывает другую проблему, называемую пластичностью и связанную со способностью к адаптации к новым  данным. Эти особенности обучения методом соревнования известны под  названием дилеммы стабильности-пластичности.

В Таблице 1 представлены различные алгоритмы  обучения и связанные с ними архитектуры  сетей (список не является исчерпывающим). В последней колонке перечислены  задачи, для которых может быть применен каждый алгоритм. Каждый алгоритм обучения ориентирован на сеть определенной архитектуры и предназначен для  ограниченного класса задач. Кроме  рассмотренных, следует упомянуть  некоторые другие алгоритмы: Adaline и Madaline, линейный дискриминантный анализ, проекции Саммона, анализ главных компонентов.

 

Таблица 1 - Алгоритмы обучения и связанные  с ними архитектуры сетей

 

    1. Краткое описание возможностейNNToolbox

 

NeuralNetworkToolbox–  это пакет расширения MATLAB, содержащий средства для проектирования, моделирования, разработки и визуализации нейронных сетей. Нейросетевые технологии позволяют решать такие задачи, решение которых классическими формальными методами затруднено или не возможно. Пакет обеспечивает всестороннюю поддержку типовых нейросетевых парадигм и имеет открытую модульную архитектуру. Пакет содержит функции командной строки и графический интерфейс пользователя для быстрого пошагового создания нейросетей. Кроме этого NeuralNetworkToolbox обеспечивает поддержку Simulink, что позволяет моделировать нейросети и создавать блоки на основе разработанных нейросетевых структур.

Ключевыеособенности:

  • Графический интерфейс пользователя для пошагового создания, обучения и имитационного моделирования нейронных сетей;
  • Поддержка наиболее распространенных управляемых и неуправляемых сетевых структур;
  • Полный перечень обучающих и тестирующих функций;
  • Динамические алгоритмы обучения сетей, включающие временную задержку, нелинейную авторегрессию (NARX), цепные и настраиваемые динамические структуры;
  • Блоки Simulink для создания нейронных сетей и развитых блоков для систем контроля;
  • Автоматическая генерация блоков Simulink из объектов нейронной сети;
  • Модульное представление сети, позволяющее создавать неограниченное количество входных слоев и объединенных сетей, а также графическое представление архитектуры сети;
  • Функции предварительной и пост обработки и блоки Simulink для улучшения процесса обучения и оценки производительности сети;
  • Визуализация топологии и процесса обучения нейронной сети.

 

NNToolпозволяет создавать следующие сети:

 

№ п/п

Тип сети

Название сети

Число слоев

Обучаемые параметры

1

Competitive

Конкурирующая сеть

1

IW{1, 1}, b{ 1}

2

Cascade-forwardbackprop

Каскадная сеть с прямым распространением сигнала  и обратным распространением ошибки

2

IW{1, 1}, b{1}

LW{2, 1}

IW{2, 1}, b{2}

3

Elmanbackprop

Сеть  Элмана с обратным распространением ошибки

2

IW{1, 1}, b{1}

LW{2, 1}, b{2}

LW{2, 1},

4

Feed-forwardbackprop

Сеть  с прямым распространением сигнала  и обратным распространением ошибки

2

IW{1, 1}, b{1}

LW{2, 1}, b{2}

5

Timedelaybackprop

Сеть  с запаздыванием и обратным распространением ошибки

2

IW{1, 1}, b{1},

LW{2, l},b{2}

6

Generalizedregression

Обобщенная  регрессионная сеть

2

IW{1, 1}, b{1},

LW{2, l}

7

Hopfield

Сеть  Хопфилда

1

LW{l, l},b{l}

8

Linearlayer (design)

Линейный  слой (создание)

1

IW{1, 1}, b{1}

9

Linearlayer (train)

Линейный  слой (обучение)

1

IW{1, 1}, b{1}

10

LVQ

Сеть  для классификации входных векторов

2

IW{1, 1},

LW{2,1}

11

Perceptron

Персептрон 

1

IW{1, 1), b{l}

12

Probabalistic

Вероятностная сеть

2

IW{1, 1}, b{l}, LW{2, 1}

13

Radialbasis (exactfit)

Радиальная  базисная сеть с нулевой ошибкой 

2

IW{ 1, 1}, b{ 1},

LW{2, 1}

14

Radialbasis (fewerneurons)

Радиальная  базисная сеть с минимальным числом нейронов

2

IW{1, 1}, b{ 1},

LW{2, 1}, b{2}

15

Self-organizingmap

Самоорганизующаяся  карта Кохонена

1

IW{1, 1}


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  1. ПРОГРАМНА РЕАЛІЗАЦІЯ

 

    1. Обучение линейного нейрона

 

Линейный  нейрон обучается реагировать на конкретные входы с целевыми выходами.

Сформируем  последовательности векторов входа  и цели (2 одноэлементных вектора). Единственный входной линейный нейрон с отклонением может использоваться, чтобы решить эту проблему.

 

P = [1.0 -1.2];

T = [0.5 1.0];

 

ERRSURF вычисляет ошибки для нейрона с диапазоном весов ивеличиной смещения.PLOTESграфически изображает поверхность ошибоки контур ошибок.

Лучший  вес и величина смещения– те, которые приводят к самому низкому показателю на поверхности ошибок.

 

w_range = -1:0.2:1;  b_range = -1:0.2:1;

ES = errsurf(P,T,w_range,b_range,'purelin');

plotes(w_range,b_range,ES);

 

 

MAXLINLR вычисляет максимальные значения параметра скорости обучения для линейной сети.В данном случае это значение составит 40% от максимальной скорости. NEWLIN создает линейную нейронную сеть.NEWLIN выбирает следующие аргументы:

  1. массив размера R*2 минимальных и максимальных значений для R векторов входа
  2. Ряд элементов в векторе цели
  3. Входной вектор задержки
  4. Изучение уровня.

 

maxlr = 0.40*maxlinlr(P,'bias');

net = newlin([-2 2],1,[0],maxlr);

 

Отменим параметры обучения по умолчанию и установим исполнительную цель.

net.trainParam.goal = .001;

 

Чтобы показать путь обучения, будем обучать только одну эпоху за один раз и «вызывать» PLOTEP каждую эпоху. График показывает историю обучения. Каждая точка представляет эпоху, а синие линии показывают каждое изменение, произведенное изученным правилом (Видроу-Хофф по умолчанию).

 

[net,tr] = train(net,P,T);

net.trainParam.epochs = 1;

net.trainParam.show = NaN;

h=plotep(net.IW{1},net.b{1},mse(T-sim(net,P)));

[net,tr] = train(net,P,T);

r = tr;

epoch = 1;

while true

epoch = epoch+1;

[net,tr] = train(net,P,T);

if length(tr.epoch) > 1

h = plotep(net.IW{1,1},net.b{1},tr.perf(2),h);

r.epoch=[r.epoch epoch];

r.perf=[r.perftr.perf(2)];

r.vperf=[r.vperfNaN];

r.tperf=[r.tperfNaN];

else

break

end

end

tr=r;

 

Обучающая функция выводит обучаемую сеть и историю обучения. Здесь ошибки изображены относительно обучения эпохи: ошибка уменьшаетсядо тех пор, пока не достигнет ошибочной цели (черная линия). В этой точке обучение останавливается.

 

plotperf(tr,net.trainParam.goal);

Теперь  используем функцию SIM, чтобы промоделировать и протестировать сеть.

 

p = -1.2;

a = sim(net, p)

 

 

 

 

 

 

 

 

 

 

 

ЗАКЛЮЧЕНИЕ

 

Согласно  общепринятому в науке принципу, если более сложная модель не дает лучших результатов, чем более простая, то из них следует предпочесть  вторую. В терминах аппроксимации  отображений самой простой моделью  будет линейная, в которой подгоночная  функция определяется гиперплоскостью. В задаче классификации гиперплоскость размещается таким образом, чтобы  она разделяла собой два класса (линейная дискриминантная функция); в задаче регрессии гиперплоскость должна проходить через заданные точки. Линейная модель обычно записывается с помощью матрицы NxN и вектора смещения размера N.

На языке  нейронных сетей линейная модель представляется сетью без промежуточных  слоев, которая в выходном слое содержит только линейные элементы (то есть элементы с линейной функцией активации). Веса соответствуют элементам матрицы, а пороги - компонентам вектора  смещения. Во время работы сеть фактически умножает вектор входов на матрицу  весов, а затем к полученному  вектору прибавляет вектор смещения.

Линейная  сеть является хорошей точкой отсчета  для оценки качества построенных  Вами нейронных сетей. Может оказаться  так, что задачу, считавшуюся очень  сложной, можно успешно решить не только нейронной сетью, но и простым линейным методом. Если же в задаче не так много обучающих данных, то, вероятно, просто нет оснований использовать более сложные модели.

 

 

 

 

 

Список использованной литературы

 

  1. Медведев В. С. Нейронные сети / В. С. Медведев, В. Г. Потемкин. – М.: Диалог МИФИ, 2009.
  2. Дьяконов В. П. MATLAB 6.0 с пакетами расширений /В. П. Дьяконов, И. В. Абраменкова, В. В. Круглов. – М: Нолидж,2008
  3. Комашинский В. И. Нейронные сети и их применение в системах управления и связи / В. И. Комашинский, Д. А. Смирнов. – М.: Горячая линия – Телеком, 2009.
  4. Минский, М., Пейперт, С. Персептроны. — М.: Мир, 2007. — 261 с.
  5. Яковлев С. С. Система распознавания движущихся объектов на базе искусственных нейронных сетей // ИТК НАНБ. — Минск: 2008. — С. 230—234.
  6. Хайкин, С. Нейронные сети: Полный. — 2-е изд. — М.: «Вильямс», 2006. — 1104 с.
  7. Брюхомицкий, Ю. А. Нейросетевые модели для систем информационной безопасности: Учебное пособие. — Таганрог: Изд-во ТРТУ, 2008. — 160 с.
  8. Роберт Каллан Основные концепции нейронных сетей. — 1-е. — «Вильямс», 2007. — С. 288.

Информация о работе Моделювання нейронного фільтра в MatLab