Автор работы: Пользователь скрыл имя, 03 Марта 2011 в 21:52, реферат
Цель моей работы – описать и разобраться в том, что же на самом деле представляет собой искусственный интеллект и можно ли сравнить его с естественным интеллектом.
Последний подход,
строго говоря, не относится к науке
о ИИ в смысле, данном Джоном Маккарти —
их объединяет только общая конечная цель.
5.ТЕСТ ТЬЮРИНГА И ИНТУИТИВНЫЙ ПОДХОД.
Эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Целью данного теста является определение возможности искусственного мышления, близкого к человеческому.
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор». Все участники теста не видят друг друга.
Однако последний
подход вряд ли выдерживает критику
при более детальном
6.СИМВОЛЬНЫЙ
ПОДХОД.
Исторически символьный подход был первым в эпоху цифровых машин, так как именно после создания Лисп, первого языка символьных вычислений, у его автора возникла уверенность в возможности практически приступить к реализации этими средствами интеллекта. Символьный подход позволяет оперировать слабоформализованными представлениями и их смыслами. От умения выделить только существенную информацию зависит эффективность и результативность решения задачи.
Но широта классов задач, эффективно решаемых человеческим разумом, требует невероятной гибкости в методах абстрагирования. А это недоступно при любом инженерном подходе, в котором исследователь выбирает методы решения, основываясь на способность быстро дать эффективное решение какой-то наиболее близкой этому исследователю задачи. То есть уже за реализованную в виде правил единственную модель абстрагирования и конструирования сущностей. Это выливается в значительные затраты ресурсов для непрофильных задач, то есть система от интеллекта возвращается к грубой силе на большинстве задач и сама суть интеллекта исчезает из проекта.
Основное применение
символьной логики — это решение задач
по выработке правил. Большинство исследований
останавливается как раз на невозможности
хотя бы обозначить новые возникшие трудности
средствами выбранных на предыдущих этапах
символьных системах. Тем более решить
их и тем более обучить компьютер решать
их или хотя бы идентифицировать и выходить
из таких ситуаций.
7.ЛОГИЧЕСКИЙ
ПОДХОД.
Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов.
Учебной моделью
систем искусственного интеллекта в 1980-х
годах был принят язык и система
логического программирования П
Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определённые знания как конкретные и обобщенные сведения.
В целом исследования
проблем искусственного интеллекта
в рамках логического подхода
к проектированию баз знаний и
экспертных систем направлено на создание,
развитие и эксплуатацию интеллектуальны
8. АГЕНТНО-ОРИЕНТИРОВАННЫЙ
ПОДХОД.
Последний подход,
развиваемый с начала 1990-х годов называется агентно-
Этот подход
акцентирует внимание на тех методах
и алгоритмах, которые помогут интеллектуальн
9.ГИБРИДНЫЙ
ПОДХОД.
Гибридный подход предполагает, что только синергетическая комбинация нейронных и символьных моделей достигает полного спектра когнитивных и вычислительных возможностей. Например, экспертные правила умозаключений могут генерироваться нейронными сетями, а порождающие правила получают с помощью статистического обучения. Сторонники данного подхода считают, что гибридные информационные системы будут значительно более сильными, чем сумма различных концепций по отдельности.
10. 0 И
1.
Еще в 1943 году нейрофизиолог Уоррен Маккаллох, обладавший, философским складом ума и широким кругом интересов, в соавторстве с 18-летним математиком Уолтером Питтсом разработал теорию деятельности головного мозга. Эта теория и стала основой, на которой сформировалось широко распространенное мнение, что функции компьютера и мозга в значительной мере сходны.
Исходя из исследований нейронов (основных активных клеток, составляющих нервную систему живых существ), Маккаллох и Питтс выдвинули гипотезу: нейроны можно рассматривать как устройства, оперирующие двоичными числами. Двоичные числа, состоящие из единиц и нолей, — рабочий инструмент так называемой Булевой логики. Сто с лишним лет назад английский математик Джордж Буль показал, что логические утверждения можно закодировать в виде единиц и нолей, где единица соответствует истинному высказыванию, а ноль — ложному, после чего ими можно оперировать как обычными числами. Позднее пионеры информатики поняли, что единица и ноль вполне соответствуют двум состояниям электрической цепи (включено/ выключено), поэтому двоичная система идеально подходит для электронных вычислительных устройств.
Маккаллох и Питтс предложили конструкцию сети из электронных нейронов, которая могла бы выполнять практически любые числовые или логические операции. А далее предположили, что такая сеть в состоянии обучаться, распознавать образы, обобщать, то есть обладает всеми чертами интеллекта.
Теории Маккаллоха—Питтса в сочетании с книгами Винера вызвали огромный интерес. В 40—60-е годы Кибернетики запирались в лабораториях и мастерских, напряженно работая над теорией функционирования мозга и методично паяя электронные компоненты моделей нейронов.
Из этого кибернетического (или нейро-модельного) подхода к машинному разуму сформировался так называемый восходящий метод — движение от простых аналогов нервной системы примитивных существ к нервной системе человека. Конечная цель виделась в создании самоорганизующейся системы, обучающейся машины — устройств, способных следить за окружающей обстановкой и с помощью обратной связи менять свое поведение, вести себя, как живой организм.
Однако такое движение не всегда целесообразно и возможно. Как заметил сам Уоррен Маккаллох. И дело не только во времени, но и в чисто физических ограничениях. Ведь даже модель нервной системы муравья состоит из 20 тысяч нейронов, а у человека их около 100 миллиардов. Фрэнка Розенблата все эти трудности, однако, не пугали. В конце 50-х он предложил модель электронного устройства — персептрона, который должен был бы имитировать процессы человеческого мышления. Персептрон передавал сигналы от "глаза" из фотоэлементов в блоки электромеханических ячеек памяти, которые оценивали относительную величину электрических сигналов. Два года спустя была продемонстрирована первая действующая машина Марк 1, которая могла научиться распознавать некоторые буквы, написанные на карточках, поднесенных к "глазам".
Персептрон Розенблата оказался высшим достижением восходящего метода создания искусственного интеллекта. Чтобы научить персептрон строить догадки на основе исходных предпосылок, в нем предусматривалась некое элементарное самопрограммирование.
Но недолго музыка играла: почву у сторонников восходящего метода выбили два профессора все того же Массачусетского Технологического Института — Минский и Пейперт, поначалу бывшие активными его приверженцами. В 1969 году они написали книгу, доказывая математически, что персептроны принципиально не в состоянии выполнять многие из обещанных функций: не то что читать, слушать и понимать полученную информацию — они никогда не смогут распознавать предмет, частично заслоненный другим. То есть, глядя на торчащий из-за кресла кошачий хвост, такая машина никогда не догадается, кому он принадлежит. Правительство США финансировать это направление перестало.
Правда, затем Минский опять "перековался" и вернулся в стан "восходящих". И даже покаялся: теперь он считал, что для реального прорыва вперед в создании разумных машин потребуется устройство, во многом похожее на разгромленный им персептрон.
Суммируя, можно привести слова члена Совета Российской ассоциации искусственного интеллекта В.Б.Тарасова о том, что на первом этапе — в 60—90-е годы — главной была "инженерия знаний": интеллектуальные системы понимались как системы, основанные на знаниях. Иначе говоря, основное внимание уделялось вопросам работы с информацией — извлечению знаний, их обработке, классификации представлению и т.д. На этой основе появляется возможность создания различных "решателей" задач.
Самыми
первыми интеллектуальными
Ярким примером сложной интеллектуальной игры до недавнего времени были шахматы. Еще в 1974 году состоялся международный шахматный турнир программ для электронных вычислительных машин. Победу в нем одержала советская программа "Каисса".
Почему "до недавнего времени"? События показали, что, несмотря на сложность шахмат и невозможность полного перебора ходов, само увеличение этого перебора резко увеличивает и шансы на победу. К примеру, компьютер IBM, победивший Каспарова, имел 256 процессоров, каждый — с 4 Гб дисковой памяти и 128 Мб оперативной. Весь этот комплекс просчитывал более 100 миллионов ходов в секунду. Именно шахматных ходов, которые должны быть сгенерированы и для которых просчитаны оценочные функции.