Хайкин С. - Нейронные сети (778923), страница 13
Текст из файла (страница 13)
Эксперименты, проведенные Симменсом (Яшпюлз) и его коллегами с большой бурой летучей мышью Ер1ез)спз бтвспв, показали, что этот процесс состоит из временных и частотно-временных преобразований, в результате которых формируется общая задержка для воспринимаемого объекта. Таким образом, частотная и временная информация, получаемая органами чувств летучей мыши за счет последовательности преобразований, приводится к единому виду. Более того, в процессе формирования образа используются инвариантные признаки, что делает его независимым от перемещения объекта и движения самой летучей мыши.
Гораздо более примечательным примером представления знаний в нейронной сети является биологическая система эхо-локации летучей мыши. Многие мыши используют сигналы с частотной модуляцией (Тгет)пенсу пюдп!абоп), или гМ-сигналы (Гтег(пепсу пккн!а1ед з(йла1), для создания акустической картины окружающего пространства.
Несущая частота этого сигнала изменяется во времени. В частности, летучая мышь ртом испускает короткие ЕМ-сигналы, а органы слуха использует в качестве приемника эха. Эхо от интересующей цели представляется в слуховом аппарате активностью нейронов, отвечающих за различные наборы акустических параметров. В слуховом аппарате летучей мыши информация представляется тремя основными характеристиками (993), 1994). 70 Глава 1. Введение Возвращаясь к главной теме этого раздела (представление знаний в нейронной сети), можно сказать, что этот вопрос непосредственно связан с сетевой архитектурой, описанной в разделе 1.6. К сожалению, в настоящее время не существует какой- либо формализованной теории оптимизации структуры нейронных сетей или оценки влияния архитектуры сети на представление знаний в ней. Ответы на эти вопросы обычно получают экспериментальным путем.
При этом сам разработчик нейронной сети становится важным элементом цикла структурного обучения. Независимо от того, как выбирается архитектура сети, знания о предметной области выделяются нейронной сетью в процессе обучения. Эти знания представляются в юмпактно распределенном виде весов синаптических связей сети. Такая форма представления знаний позволяет нейронной сети адаптироваться и выполнять обобщение, однако не обеспечивает полноценного описания вычислительного процесса, используемого для принятия решения или формирования выходного сигнала.
Это может накладывать серьезные ограничения на использование нейросетевого подхода, особенно в тех областях, где решающим является принцип безопасности, например в области диспетчеризации движения самолетов или в медицинской диагностике. В таких приложениях не только желательно, но и жизненно необходимо обеспечить возможность обьлсненил (ехр!апайоп сараЬ]1йу). Одним из способов обеспечения такой возможности является интеграция нейронных сетей и моделей искусственного интеллекта в единую гибридную систему. Этот вопрос будет обсуждаться в следующем разделе.
1.8. Искусственный интеппект и нейронные сети Основной задачей искусствеклого интеллекта (агбйс]а! 1п1е)йяепсе — А1) является разработка парадигм или алгоритмов, обеспечивающих компьютерное решение когнитивных задач, свойственных человеческому мозгу [924]. Следует заметить, что это определение искусственного интеллекта не является единственно возможным.
Системы искусственного интеллекта должны обеспечивать решение следующих трех задач: наюпление знаний, применение накопленных знаний для решения проблемы и извлечение знаний из опыта. Системы искусственного интеллекта реализуют три ключевые функции: представление, рассуждение и обучение 1924] (рис. 1.24).
1. Представление (гергезеп1абоп). Одной из отличительных черт систем искусственного интеллекта является использование символьного языка (зутЬо! ззгис1ше) для представления общих знаний о предметной области и конкретных знаний о способах решения задачи. Символы обычно формулируются в уже известных терминах. Это делает символьное представление относительно простым и понятным человеку. Более того, понятность символьных систем искусственного интеллекта делает их пригодными для человеко-машинного общения. 1.8.
Искусственный интеллект и нейронные сети 71 Рис. 1.24. Трн ключевые функции систем искусственного интеллекта Термин "знания", используемый создателями систем искусственного интеллекта, является всего лишь еще одним названием данных. Знания могут иметь процедурный и декларативный характер. В декларативном (дес1агаг(че) представлении знания— это статический набор фактов. При этом существует относительно малый объем процедур, используемых для манипуляций этими фактами.
Характерной особенностью декларативного представления является то, что в глазах человека оно имеет смысл само по себе, независимо от использования в системах искусственного интеллекта. В процедурном (ргоседпга1) представлении знания внедрены в процедуры, функционирующие независимо от смысла самих знаний.
В большинстве предметных областей требуются одновременно оба типа представления знаний. 2. Рассуждения (геазошпя). Под рассуждениями обычно понимается способность решать задачи. Для того чтобы систему можно было назвать разумной, она должна удовлетворять следующим условиям 1295). ° Описывать и решать широкий спектр задач.
° Понимать явную (ехр!гсй) и неявную (ппр1(сй) информацию. ° Иметь механизм управления (сопгго1), определяющий операции, выполняемые для решения отдельных задач. Решение задач можно рассматривать как некоторую задачу поиска (зеагсЬ(пй ргоЬ1еш). В процессе поиска используются правила (гц1ез), данные (дага) и управляющие воздействия (сопгго1) 1785). Правила действуют на области данных, а управляющие воздействия определяются для правил. Для примера рассмотрим известную "задачу коммивояжера". В ней требуется найти кратчайший маршрут из одного города в другой.
При этом все города, расположенные по маршруту, необходимо посетить только один раз. В этой задаче множество данных состоит из всех возможных маршрутов и их стоимостей, представленных в форме взвешенного графа. Правила определяют пути движения из одного города в другой, а модуль управления решает, когда и какие правила применять. 72 Глава 1. Введение Рис. 1.25. Простейшая модель машинного обучения Во многих практических задачах (например, в медицинской диагностике) доступный набор знаний является неполным или неточным. В таких ситуациях используются вероятностные рассуждения (ргоЬаЬ!!Вбс геазошпй), позволяющие системам искусственного интеллекта работать в условиях неопределенности 1822), [916].
3. Обучение (1еапппб). В простейшей модели машинного обучения (рис. 1.25) информацию для обучаемого элемента (1еапппй е!ешеп1) предоставляет сама среда. Обучаемый элемент использует полученную информацию для модернизации базы знаний (1спош1едйе Ьаае), знания из которой функциональный элемент (рог!оппапсе е1ешеп1) затем использует для выполнения поставленной задачи. Информация, поступающая из внешней среды, является несовершенной, поэтому обучаемый элемент заранее не знает, как заполнить пробелы или игнорировать несущественные детали. Машина действует наугад, после чего получает сигнал обратной связи (ГеедЬаск) от функционального элемента. Механизм обратной связи позволяет системе проверять рабочие гипотезы и пересматривать их по мере необходимости.
Машинное обучение может включать два совершенно разных способа обработки информации: индуктивный ((пдлсбче) и дедуктивный (дедис6че). При индуктивной обработке информации общие шаблоны и правила создаются на основании практического опыта и потоков данных. При дедуктивной обработке информации для определения конкретных фактов используются общие правила. Обучение на основе подобия представляет собой индуктивный процесс, а доказательство теорем — дедуктивный, поскольку оно опирается на известные аксиомы и уже доказанные теоремы.
В обучении на основе объяснения используется как индукция, так и дедукция. Возникающие при обучении сложности и накопленный при этом опыт привели к созданию различных методов и алгоритмов пополнения баз знаний. В частности, если в данной предметной области работают опытные профессионалы, проще получить их обобщенный опыт, чем пытаться дублировать экспериментальный путь, который они прошли в процессе его накопления.
Эта идея и положена в основу экспертных систем (ехрег! зуз!еш). Возникает вопрос: как сравнить когнитивные модели нейронных сетей с символьными системами искусственного интеллекта? Для такого сравнения разобьем проблему на три части: уровень объяснения, стиль обработки и структуру представления 17241. 1.8. Искусственный интеллект и нейронные сети 73 1. Уровень объяснения (ехр!апазюп 1еяе1). Классические системы искусственного интеллекта (агббс!а! !иге!!!яепсе — А1) основаны на символьном представлении. С точки зрения познания А1 предполагает существование ментального представления, в котором познание осуществляется как последовательная обработка (зециепба! ргосеагйпй) символьной информации [780]. В центре внимания нейронных сетей находятся модели параллельной распределенной обработки (рага11е! 6!зп1Ьп!ед ргосезгйпб или РРР).
В этих моделях предполагается, что обработка информации происходит за счет взаимодействия болыпого количества нейронов, каждый из которых передает сигналы возбуждения и торможения другим нейронам сети [912!. Более того, в теории нейронных сетей большое внимание уделяется нейробиологическому описанию процесса познания.
2. Стиль обработки (ргосезгйлд з!у!е). В классических системах искусственного интеллекта обработка происходит последовательно (зециепг!а!), как и в традиционном программировании. Даже если порядок выполнения действий строго не определен (например, при сканировании правил и фактов в экспертных системах), операции все равно выполняются пошагово.