Автор работы: Пользователь скрыл имя, 11 Марта 2011 в 17:02, курсовая работа
Мультиагентные системы созданы для решения различных задач искусственного интеллекта, в которых присутствует несколько участников. Основным понятием является агент.
Введение
1.Основные понятия
2.Рациональный агент
3. Структура мультиагентной системы принятий решений для оценки деятельности предприятия
Заключение
Список литературы
Агент, который
отображает текущее восприятие ot в новое действие at, называется рефлексивным,
а его стратегию называютреактивной или стратег
Возникает естественный вопрос: насколько хорошим может быть такой рефлексивный агент? Как мы увидим дальше, он может быть довольно неплохим.
Окружение и свойство Маркова
Из сказанного выше следует, что понятия окружения и агента являются спаренными, так что одно понятие не может быть определено без другого. Фактически, различие между агентом и его окружением не всегда отчетливо, и это иногда осложняет проведению четкой границы между ними. Для простоты предположим, что существует мир, в котором есть один или более агентов, в котором они воспринимают, думают и действуют.
Коллективная информация, которая содержится в окружающем мире в момент времени t и которая важна для исполняемой задачи, называется состоянием мира и обозначается st. Множество состояний мира обозначим через S.
В зависимости от природы задачи, мир может быть дискретным или непрерывным. Дискретный мир характеризуется конечным числом состояний. Примером может служить игра в шахматы. С другой стороны примером непрерывного мира может служить мобильный робот, который может свободно передвигаться в декартовой системе координат. Большинство из существующих технологий искусственного интеллекта созданы для дискретного мира, поэтому мы будем в дальнейшем рассматривать именно его.
Наблюдаемость
Важное свойство,
характеризующее мир с точки зрения
агента, связано с восприятием. Мы будем
говорить, что мир полностью наблюдаем,
если текущее восприятие агента ot полностью описывает
состояние мира st. В противоположность
этому, в частично наблюдаемом мире текущее
восприятие ot описывает лишь часть
информации о состоянии мира, задающую
вероятностное распределение P(st | ot) межд
Свойство Маркова
Рассмотрим снова
рефлексивного агента с реактивной
тактикой π(ot) = at в
Про такое состояние мира, которое содержит всю важную информацию о прошлом в конкретной задаче, говорят, что оно является марковским или обладает свойством Маркова.
Из выше сказанного мы можем сделать вывод, что в марковском мире агент может безопасно использовать стратегию без памяти для принятия решения вместо теоретически оптимальной стратегии, которая может требовать много памяти.
До сих пор мы рассматривали, как стратегия агента может зависеть от последнего события и отдельных характеристик окружения. Однако, как мы обсуждали вначале, принятие оптимального решения может также зависеть от оценки будущего.
Стохастические переходы
В каждый момент времени t агент выбирает действие at из конечного множества действий A. После выбора агентом действия мир меняется как его следствие. Модель перехода (иногда называют моделью мира) определят, как меняется мир после совершения действия. Если текущее состояние мира st и агент совершает действие at, мы можем выделить два случая.
Как мы могли заметить, иногда частичная обозреваемость является следствием неточности восприятия агентом его окружения. Здесь мы видим другой пример, где важна неточность, а именно, мир меняется, когда совершается действие. В стохастическом мире эффект действия агента не известен заранее. Вместо этого есть случайный элемент, который определяет, как меняется мир вследствие действия. Ясно, что стохастичность при переходе из одного состояния в другое вносит дополнительные сложности в задаче принятия оптимального решения агентом.
Для классического
искусственного интеллекта целью отдельной
задачи является желаемое состояние
мира. Таким образом,планирование опр
Принятие решения в стохастическом мире
Теперь возникает вопрос, как агент может эффективно использовать функции полезности для принятия решения. Предположим, что у нас мир стохастический с моделью перехода P(st + 1 | st, at), находящийся в состоянии st до тех пор, пока агент обдумывает, какое действие ему совершить. Пусть U(s) — функция полезности состояния какого-то агента. Предположим, что у нас только один агент. Тогда принятие решения основано на предположении, что оптимальное действие агента должно быть максимумом полезности, т.е.
a*t = max∑P(st + 1 | st, at)·U(st + 1),
где суммирование
выполняется по всевозможным состояниям st +
1. Чтобы увидеть, насколько полезно
действие, агент должен умножить полезность
каждого возможного конечного состояния
на вероятность попадания в это состояние,
и потом просуммировать полученный результат.
Тогда агент может выбрать действие a*t с
максимальной суммой. Если каждое состояние
мира имеет величину полезности, агент
может произвести вычисления и выбрать
оптимальное действие для каждого возможного
состояния. Тогда агент со стратегией может
оптимально переводить состояние в действие.
Интеллектуальные мультиагентные системы принятия решений предназначены для оценки качества организационно-технических и экономических решений в процессе деятельности предприятия. Для работы в быстроизменяющихся условиях предприятиям необходимо постоянно трансформировать свои производственные структуры и структуры бизнес-процессов. При этом становиться неизбежным привлечение сторонних специалистов из различных областей. Оценка предлагаемых решений является сложным и постоянным видом деятельности, требующим участия высококвалифицированных экспертов, которые, как правило, территориально удалены друг от друга. Этим обусловлена актуальность распределенной компьютерной поддержки процессов принятия решений, которая может быть реализована с применением мультиагентных систем.
Общая схема принятия решений включает следующие этапы:
1) спецификация требований;
2) генерация решений;
3) оценка альтернатив;
4) выбор эффективного решения.
Оценку решений проводит рабочая группа, состоящая из руководителя, аналитика и экспертов.
Руководитель формирует набор показателей, которые будут использоваться для оценки проектов; подбирает состав группы экспертов; составляет персональный график выполнения задач экспертами. Каждый эксперт работает по индивидуальному сценарию. Аналитик высказывает свое мнение о результатах проведенной экспертами работы.
Для поддержки группового процесса принятия решений используется программная реализация метода анализа иерархий:
На каждом этапе
предусмотрены процедуры
Ядром мультиагентной системы является менеджер знаний, использующий три внешних компонента:
Для координации работы коллектива экспертов используется двухуровневый механизм согласования. Каждый из экспертов представлен агентом, в задачу которого входит оценка предлагаемых руководителем альтернатив по заданному набору показателей качества. С помощью редактора знаний руководитель формирует задания экспертам и проводит анализ полученной от них информации. Задача координации поведения агентов возложена на агента-координатора. Результатом работы системы являются согласованные экспертные оценки, на основании которых производится многокритериальное ранжирование альтернатив.
Основные функции агентов в системе:
Агент-руководитель:
Агент-координатор: