Хайкин С. - Нейронные сети (778923), страница 24
Текст из файла (страница 24)
Инверсную систему можно описать следующим образом: х = Г'(й), (2.22) где вектор-функция 1.' '( ) является инверсной к функции Т( ). Обратим внимание, что функция 1' ' ( ) ие является обратной к функции 1'( ). Здесь верхний индекс — 1 используется только как индикатор инверсии. Во многих ситуациях на практике функция Т( ) может быть достаточно сложной, что делает практически невозможным формальный вывод обратной функции Т '(.). Однако на основе множества маркированных примеров (2.20) можно построить нейронную сеть, аппроксимирующую обратную функцию 1' " ( ) с помощью схемы, изображенной на рис.
2.12. В данной ситуации роли векторов х, и е)а меняются: вектор 6, используется как входной сигнал, а вектор х; — как желаемый отклик. Пусть вектор сигнала ошибки определяется как разность между вектором х, и выходом нейронной сети у,, полученным в ответ на возмущение г),. Как и в задаче идентификации системы, вектор сигнала ошибки используется для корректировки свободных параметров нейронной сети с целью минимизации суммы квадратов разностей между выходами неизвестной инверсной системы и нейронной сети в статистическом смысле (т.е. вычисляемой на всем множестве примеров обучения). Управление Управление лредлрнятием (р!апг) является еще одной задачей обучения, которую можно решать с использованием нейронной сети.
Здесь под термином "предприятие" понимается процесс или критическая часть системы, подлежагцие управлению. Ассоциация между управлением и обучением вряд ли кого-нибудь удивит, так как человеческий мозг является компьютером (обработчиком информации), выходами ко- 2.10. Задачи обучения 117 Сигнал Вход Единая обратная связь Рмс. 2.13.
Блочная диаграмма системы управления с обратной связью торого, как системы в целом, являются действия. В контексте задач управления сам мозг является живым доказательством возможности создания обобщенной системы управления, использующей преимущества параллельных распределенных вычислений и одновременно управляющей тысячами функциональных механизмов. Такая система является нелинейной, может обрабатывать шумы и оптимизировать свою работу в ракурсе долгосрочного планирования !11251. Рассмотрим систему управления с обратной связью (Кеес!Ъас)с сон!го! зузгеш), показанную на рис.
2.13. В этой системе используется единственная обратная связь, охватываюшая весь объект управления (т.е. выход объекта связан с его входом)о. Таким образом, выход объекта управления у вычитается из эталонного сигнала (геГегепсе з!япа!) л1, принимаемого из внешнего источника. Полученный таким образом сигнал ошибки е подается на нейроконтроллер (пепгосопгго1!ег) для настройки свободных параметров. Основной задачей контроллера является поддержание такого входного вектора объекта, для которого выходной сигнал у соответствует эталонному значению л!. Другими словами, в задачу контроллера входит инвертирование отображения вход-выход объекта управления.
Заметим, что на рис. 2.13 сигнал ошибки е распространяется через нейроконтроллер, прежде чем достигнет объекта управления. Следовательно, для настройки свободных параметров объекта управления в соответствии с алгоритмом обучения на основе коррекции ошибок необходимо знать матрицу Якоби: (2.23) где уя — элемент выходного сигнала у объекта управления; иу — элемент вектора входов объекта в. К сожалению, частные производные дуя/диз для различных й и 2 Выходной сигнал объекта обычно является некоторой физической переменной.
Для управления объекюм необходимо знать значение этой переменной, а значит, необходимо измерять выходной сигнал объекта. Система. нспачьзуемвя для измерения физических величин, нюывается датчиком, или сенкорохь Таким образом, чтобы быть предельно точными, блочная диаграмма на рис. 2.13 должна содержать сенсор в цепи обратной связи. Мы опустили использование сенсора, считая, что передаточная функция сенсора тождественно равна единичной. 118 Глава 2. Процессы обучения зависят от рабочей точки объекта управления и, следовательно, не известны. Для их оценки можно использовать два следующих подхода.
° Непрямое обучение (!пйгесг 1еаппп8). С использованием текущих измерений входа и выхода объекта управления строится модель нейронной сети, воспроизводящая эту зависимость. Эта модель, в свою очередь, используется для оценки матрицы Якоби Л. Частные производные, составляющие эту матрицу, впоследствии используются в алгоритме обучения на основе коррекции ошибки для настройки свободных параметров нейроконтроллера 17821, !10371, 11145!. ° ПРЯмое обУчение (б!тес!!еаш!п8).
Знаки частных пРоизводных дул/ди, в общем случае известны и обычно остаются постоянными в некотором динамическом диапазоне значений объекта управления. Это наводит иа мысль, что частные производные можно аппроксимировать по их знакам. Абсолютные значения частных производных задаются распределенным представлением в свободных параметрах нейроконтроллера !9231, [9421. Таким образом, свободные параметры нейроконтроллера можно настроить непосредственно с помощью объекта управления. Фильтрация Под термином фильтр (бег) обычно понимают устройство или алгоритм, используемые для извлечения полезной информации из набора зашумленных данных. Шум может возникать по многим причинам.
Например, данные могут быть измерены с помехами, или возмущения могут возникнуть при передаче информационного сигнала через зашумленные линии связи. Кроме того, на полезный сигнал может быть наложен другой сигнал, поступающий из окружающей среды. Фильтры можно применять для решения трех основных задач обработки информации. 1. Филыврация(бйеппй), т.е. извлечение полезной информации в дискретные моменты времени и из данных, измеренных вплоть до момента времени п включительно.
2. Сглаживание (ыпоой!п8). Эта задача отличается от фильтрации тем, что информация о полезном сигнале в момент времени п не требуется, поэтому для извлечения этой информации можно использовать данные, полученные позже. Это значит, что в сглаживании при формировании результата присутствует запаздывание (бе!ау). Так как при сглаживании можно использовать данные, полученные не толью до момента времени п, но и после него, этот процесс в статистическом смысле является более точным, чем фильтрация. 3. Прогнозирование (ргейсбоп). Целью этого процесса является получение прогноза относительно состояния объекта управления в некоторый момент времени и+ пс, где по ) О, на основе данных, полученных до момента п (включительно).
2.10. Задачи обучения 119 2 х(п) и,(п) и (п) Рис.2.14. Блочная диаграм- 2 и (и) ~ х(п и ма слепого разделения ис- ' — — — — — — — — — — --- — — — --- ° точннков Неизвестная среда у,(п) ут( у„(п) х(п) = Ан(п), (2.24) где н(п) = (ит(п),из(п),...,и„,(п)з]т, Х(П) = [Хт(п)2 ХЗ(П),..., Хш(п)] (2.25) (2.26) где А — неизвестная несингулярная мангрит(а смешивания размерности т х т. Вектор наблюдения х(п) известен. Требуется восстановить исходный сигнал ит(п),из(п),...,и (п) методом обучения без учителя. 'а так называемый "феномен вечеринки" (сссиаа рану рдепошепоп) связан с уникальной способносп,ю человека избирательно отфильтровывать нужные ему источники звукового сигнала в зашумленной среде [188], [! 89].
Эта способность обеспечивается комбинацией трех процессов, выполняемых слуховым аппаратом. Сеаиепмадия. Входной звуковой сигнал сегментируется иа отдельные каналы, несущие значимую для слушателя информацию об окружаюшей среде. Среди эвристик, используемых слушателем при сегментации сигнала, самой важной является пространственное расположение местоположения обьекта (арала! (осабоп) [753]. Виимппие.
Это способность слушателя фокусировать внимание на одном из каналов при одновременной блокировке внимания к другим каналам [188]. Переключение. Способность переключать внимание с одною канала на лругой, что обычно обеспечивается за счет открытия-закрытия шлюзов каналов входного звукового сигнала по принципу "сверху вниз" [11б5]. Из этого можно сделать вывод, что обработка звукового сигнала носит просмрппсмеепио-еремеииой характер.
Задачей фильтрации, с которой знакомы практически все, является задача распознавании голоса собеседника на шумной вечеринке'а (сос]с(ай раг!у ргоЫеш). Мы обладаем способностью сконцентрироваться на голосе собеседника, несмотря на разноголосый шум, доносящийся от групп посетителей вечеринки, слова которых мы не различаем. Вероятно, для решения атой задачи используется некоторая форма предсознательного и преатгентивного анализа (1090).
В контексте (искусственной) нейронной сети аналогичная задача фильтрации возникает при слепом разделении сигнала (Ы[пс$8!йпа! зерагайоп) (37], (116), (205). Чтобы сформулировать задачу слепого разделения сигнала, представим себе неизвестный источник независимых сигналов (в,(п)),, Эти сигналы линейно смешиваются неизвестным сенсором, в результате чего получается вектор наблюдения размерности т х 1 (рис. 2.14): 120 Глава 2.
Процессы обучения цв-Л г(ь -22! Рне. 2.15. Блочная диаграмма нелинейного прогнозирования Вернемся к задаче прогнозирования, в которой требовалось предсказать текущее значение процесса х(л) по предшествующей информации об этом процессе, снятой в дискретные моменты времени и представленной значениями х(л — Т), х(л— 2Т),..., х(п — тТ), где Т вЂ” периодичность снятия сигнала, а гп — порядок прогнозирования. Задача прогнозирования может быть решена с помощью обучения на основе коррекций ошибок без учителя, так как обучающие примеры получаются непосредственно от самого процесса (рис. 2.15).
При этом х(п) выступает в роли желаемого отклика. Обозначим х(л) результат прогнозирования на один шаг вперед, сгенерированный нейронной сетью в момент времени и. Сигнал ошибки определяется как разность между х(л) и х(п). Он используется для настройки свободных параметров нейронной сети. При этих допущениях прогнозирование можно рассматривать как форму построения модели (люде! Ьш101пй) в том смысле, что чем меньше ошибка прогнозирования в статистическом смысле, тем лучше нейронная сеть будет работать в качестве модели имитируемого физического процесса, обеспечивающего генерацию данных.