Нейронные сети

Автор работы: Пользователь скрыл имя, 21 Апреля 2010 в 17:12, Не определен

Описание работы

Введение………………………………………………………………………..3
1.История развития нейронных сетей………………………………………...4
2.Устройство нейронных сетей………………………………………………..6
3.Функции активации………………………………………………………….7
4.Типы архитектур нейросетей………………………………………………..8
5.Обучение многослойной сети………………………………………………..12
6.Обратное распространение ошибки…………………………………………14
7..Организация процесса обучения……………………………………………16
Заключение……………………………………………………………………...17

Файлы: 1 файл

ГОТОВЫЙ.doc

— 149.00 Кб (Скачать файл)

5. Обучение многослойной сети

     Главное отличие и преимущество нейросетей перед классическими средствами прогнозирования и классификации заключается в их способности к обучению. Так что же такое обучение нейросетей? На этапе обучения происходит вычисление синоптических коэффициентов в процессе решения нейронной сетью задач, в которых нужный ответ определяется не по правилам, а с помощью примеров, сгруппированных в обучающие множества. Так что нейросеть на этапе обучения сама играет роль эксперта в процессе подготовки данных для построения экспертной системы. Предполагается, что правила находятся в структуре обучающих данных. Для обучения нейронной сети требуются обучающие данные. Они должны отвечать свойствам представительности и случайности или последовательности. Все зависит от класса решаемой задачи. Такие данные представляют собой ряды примеров с указанием для каждого из них значением выходного параметра, которое было бы желательно получить. Действия, которые при этом происходят, можно назвать контролируемым обучением: "учитель" подает на вход сети вектор исходных данных, а на выходной узел сообщает желаемое значение результата вычислений.

       Контролируемое обучение нейросети  можно рассматривать как решение  оптимизационной задачи. Ее целью  является минимизация функции  ошибок Е на данном множестве  примеров путем выбора значений  весов W. Достижение минимума называется  сходимостью процесса обучения. Именно возможность этого и доказал Розенблатт. Поскольку ошибка зависит от весов нелинейно, получить решение в аналитической форме невозможно, и поиск глобального минимума осуществляется посредством итерационного процесса так называемого обучающего алгоритма. Разработано уже более сотни разных обучающих алгоритмов, отличающихся друг от друга стратегией оптимизации и критерием ошибок. Обычно в качестве меры погрешности берется средняя квадратичная ошибка (СКО):

     

     где М - число примеров в обучающем  множестве. Минимизация величины Е  осуществляется с помощью градиентных  методов. Изменение весов происходит в направлении, обратном к направлению  наибольшей крутизны для функции:

     

     Здесь ? - определяемый пользователем параметр, который называется коэффициентом  обучения.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

     6. Обратное распространение  ошибки

     Одним из самых распространенных алгоритмов обучения нейросетей прямого распространения является алгоритм обратного распространения ошибки (Back Propagation, BP). Этот алгоритм был переоткрыт и популяризован в 1986 г. Румельхартом и МакКлелландом из группы по изучению параллельных распределенных процессов в Массачусетском технологическом институте. Здесь я хочу подробно изложить математическую суть алгоритма, так как очень часто в литературе ссылаются на какой-то факт или теорему, но никто не приводит его доказательства или источника. Честно говоря, то же самое относится к теореме об отображении нейросетью любой функциональной зависимости, на которой основываются все попытки применить нейросети к моделированию реальных процессов. Приведём алгоритм работы нейросети Итак, это алгоритм градиентного спуска, минимизирующий суммарную квадратичную ошибку:

     

     Здесь индекс i пробегает все выходы многослойной сети. Основная идея ВР состоит в  том, чтобы вычислять чувствительность ошибки сети к изменениям весов. Для этого нужно вычислить частные производные от ошибки по весам. Пусть обучающее множество состоит из Р. образцов, входы которого где ? - длина шага в направлении, обратном к градиенту обозначены через {xik} Вычисление частных производных осуществляется по правилу цепи: вес входа i-гo нейрона, идущего от j-гo нейрона, пересчитывается по формуле:

     

     где ? - длина шага в направлении, обратном к градиенту

     Если  рассмотреть отдельно k-тый образец, то соответствующее изменение весов  равно:

     

     Множитель вычисляется через аналогичные  множители из последующего слоя, и  ошибка, таким образом, передается в обратном направлении. Для выходных элементов получим:

     

     Для скрытых элементов множитель  определяется так:

     

где индекс h пробегает  номера всех нейронов, на которые воздействует i-ый нейрон.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

7. Организация процесса обучения

       Из теоремы об отображении  практически любой функции с  помощью многослойной нейросети  следует, что обучаемая нами нейронная сеть в принципе способна сама подстроиться под любые данные с целью минимизации суммарной квадратичной ошибки. Чтобы этого не происходило, при обучении нейросетей используют следующий способ проверки сети. Для этого обучающую выборку еще перед началом обучения разбивают случайным образом на две подвыборки: обучающую и тестовую. Обучающую выборку используют собственно для процесса обучения, при этом изменяются веса нейронов. А тестовую используют в процессе обучения для проверки на ней суммарной квадратичной ошибки, но при этом не происходит изменение весов. Если нейросеть показывает улучшение аппроксимации и на обучающей, и на тестовой выборках, то обучение сети происходит в правильном направлении. Иначе может снижаться ошибка на обучающей выборке, но происходит ее увеличение на тестовой. Последнее означает, что сеть "переобучилась" и уже не может быть использована для прогнозирования или классификации. В этом случае немного изменяются веса нейронов, чтобы вывести сеть из окрестности локального минимума ошибки.  
 
 
 
 
 
 
 
 

Литература:

  1. Мак-Каллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной активности // Автоматы, под ред. Шеннона К.Э. и Маккарти Дж. М.: ИЛ, 2003. С. 362 - 384.
  2. Минский М., Пейперт С. Перцептроны./ Минский М. Мир, 2001. 234 с.
  3. Розенблат Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга. Мир, 2004, 248 с.
  4. С. Короткий, "Нейронные сети: Алгоритм обратного распространения". СПб, 2002, 328 с.
  5. С. Короткий,"Нейронные сети: Основные положения. СПб, 2002. 357 с.
  6. Фомин С.В., Беркенблит М.Б. Математические проблемы в биологии. М.: Наука, 2004, 200 с.
  7. Фон Нейман Дж. Вероятностная логика и синтез надежных организмов из ненадежных компонент. // Автоматы, под ред. Шеннона К.Э. и Маккарти Дж. М.: ИЛ, 2003, С. 68 - 139.
  8. Фон Нейман Дж. Теория самовоспроизводящихся автоматов. М.: Мир, 2001, 382 с.
  9. Фролов А.А., Муравьев И.П. Информационные характеристики нейронных сетей. М.: Наука, 2005, 160 с.
  10. Фролов А.А., Муравьев И.П. Нейронные модели ассоциативной памяти. М.: Наука, 2004, 160 с.

Информация о работе Нейронные сети