Хайкин С. - Нейронные сети (778923), страница 197
Текст из файла (страница 197)
На рис. 16.2 показана функциональная архитектура интеллектуального автономного контроллера 165), 1820). Эта система имеет следующие функциональные уровни. 1. Уровень выполнения (ехесцйоп!ече1). Включает низкоуровневую обработку сигна- ла и алгоритмы адаптивного управления и идентификации. 2. Уровень координации (соогс]]па!]оп!ече1). Реализует связь уровней выполнения и управления, контролируя такие вопросы, как настройка (Шшпй), контроль (зцрегч151оп), разрешение кризисов (спгйз шапайегпеп1) и планирование (р!апшпй). 3. Уровень управления и организации (шапайешепг апс] огйашхайоп 1ече1).
Осуществляет контроль над низкоуровневыми функциями н управяение интерфейсом с человеком. В то время как классическое управление уходит корнями в теорию линейных дифференциальных уравнений, интеллектуальное управление основывается на правилах (гц1е Ьазек]), так как зависимости, вовлеченные в его реализацию, настолько сложны, что не допускают аналитического представления. Для того чтобы работать с такими зависимостями, целесообразно использовать математику нечетких систем и нейрон- а Интсинснтутьнсс управление рассматривается в 1403], 11065], [1130]. Интеллектуальные системы ЭЭЗ ных сетей.
Сила нечетких система (бзггу зуз!еш) заключена в их способности создавать количественное представление лингвистического входа и быстро предоставлять эффективную аппроксимацию сложных и зачастую неизвестных правил отображения входа на выход в различных системах. Сила нейронных сетей заключается в их способности обучаться на данных.
Между нейронными сетями и нечеткими системами существует определенная синергетика, которая делает их гибридизацию важным инструментом интеллектуального управления и других приложений. Переходя далее к обработке сигналов, можно сказать, что не существует более плодородной области применения нейронных сетей и, в частности, их характеристик нелинейности и адаптивности 14341.
Многие физические явления отвечают за генерацию информационньгх сигналов (ш1олпа!]оп-Ьеаппя 5]япа[), встречаемых на практике (в частности, речевых, радарных и сонарных сигналов), управляются нелинейной динамикой нестационарной и сложной природы, которая не имеет точного математического описания. Для использования полного информационного содержания таких сигналов во все моменты времени требуются интеллектуальные машины обработки сигнапа5, конструкция которых решает следующие ключевые вопросы.
° Нелинейность (поп]шеап[у), которая делает возможным извлечение статистики высокого порядка из входного сигнала. ° Обучение и адаптация (]еапппй апд адар)айоп), посредством которой система может обучиться исследуемому физическому механизму среды и адаптироваться к непрерывным медленным статистическим вариациям внешней среды. ° Механизм внимания (аЦепбопа! шесЬап[зш), в котором посредством взаимодействия с конечным пользователем или с помощью самоорганизации система может сфокусировать свои вычислительные мощности на конкретной области изображения или на конкретном месте в пространстве для их более детального анализаб. 4 теорня нечетких множеств была заложена в [1175], [1! 76] с целью реализации математического ннструментарня работы с лннгвнстнческнмн переменными (т.е.
концепцнямн, описанными на естественном языке). Толхцванне нечеткой логики в книжной форме содержнтся в [2б8]. В [59Ц прнннмается другая точка зрення: нечепгне системы рассматрнваются как аппрокснматоры функций. В ней показано, что нечеткая система способна моделировать любую непрерывную функцню нлн снстему прн условии нспользовання достаточных правил. з Спецнальный выпуск статей 1ЕЕЕ !998 [!пабцце оГ Е!ее!пса! апй Е!ее!гопы Епя]пееш) был посвящен вопросу интеллектуальной обработкн сигналов [440].
ь Самоорганнзуюшнеся системы для иерархической фокусировки нлн избирательного вннмання были опнсаны в [324], Описанная снстема являлась модификацией многослойного неокогннтрона Самоорганнзуюшнйся механизм внимания также представлен в теории адаптивного резонанса !айарйте гшопапсе бгеогу), основы которой были заложены в [175], [177]. Эта теория, применяемая к задаче адаптнвного распознавания образов, использует комбннацню фнльтрацнн сннзу вверх [Ьоцош-ор 61геппя) н сравнения образцов сверху вннз [гор-бомп гешр)аш шагсмпя). 994 Глава 16. Заключение На рис.
16.3 показана функциональная архитектура интеллектуальных машин обработки сигнала, которая имеет три уровня. 1. Низкоуровневая обработка ([охч-[ече! ргосезз!пя), целью которой является предварительная обработка полученного сигнала и его подготовка для второго уровня. В предварительную подготовку входит использование фильтрации для уменьшения эффекта шума, а также другие продвинутые операции обработки сигнала, такие как частотно-временной анализ (([те-йейиепсу апа[уз!8). Целью частотно- временного анализа является описание того, как развивается спектральное содержание сигнала и каков спектр, изменяющийся во времени.
В частности, одномерное (временное) представление получаемого сигнала преобразовывается в двумерное изображение, одно измерение которого является частотой, а второе— временем. Частотный анализ реализует эффективный метод выявления нестационарной природы получаемого сигнала, который делает ее более различимой, чем исходная временная форма. 2.
Уровень обучения и адаптации ([еапппй апд адар(а1юп!ече!), на котором память (как краткосрочная, так и долгосрочная) и механизм внимания встраиваются в конструкцию системы. Например, в многослойном персептроне, подвергающемся обучению с учителем на большом множестве данных, представительном для среды функционирования системы, общая статистическая информация о среде хранится в синаптических весах сети. Для того чтобы учесть медленные статистические вариации среды во времени, к выходу многослойного персептрона добавляется схема слепой адаптации (т.е.
подсистема непрерывного обучения, работающая без учителя). Этот процесс обучения также включает обеспечение сети внимания' (аиеп(юпа1 пенчог[с), в которой система может сфокусировать свое внимание на особенно важных свойствах получаемого сигнала, "вентнлируя" поток информации от нижнего слоя к верхним, если возникнет такая потребность. 3. Уровень принятия решения (дес!яоп-тайдпд 1ече!), на котором система принимает окончательное решение. Решение может приниматься относительно того, содержится ли во входном сигнале интересующий объект, как в случае радара или сонара, и как интерпретировать поступившую информацию — как единицу или нуль (в случае цифровой связи).
В процессе принятия решения также учитываются уровни доверия. Детальное описание частотно-временною анализа, построенного на классической теории Фурье, содержится в [1991. Теория и приложения распределения Внгнера (99(йпег сйягпЬцпоп), важного инструмента в билинейном/квадратичном частотно-временном представлении, описаны в [723!. Еще одна точка зрения, в которой вместо частоты мы рассматриваем амплитуду (аса1е), представлена в работе, посвященной злементарным волнам и связанным с ними вопросам кодирования полосы (внЬЬапй совая) [! 0931. а В [!0781 описана нейросетевая модель избира~ельного сокрытия визуального внимания (ае1есбте сотен тина( апепбоп).
Эта модель может обучиться фокусированию внимания на характеристиках, важных для конкретной решаемой задачи, с помощью модуляции потока информации на предварительной стадии. Интеллектуальные системы 99$ Рис. 16.3. Функциональная архитектура интеллектуальных машин обработки сигнала Мы ие заявляем, что описанные здесь системы являются единственным способом встраивания интеллекта в системы классификации образов, управления и обработки сигнала. Оии представляют систематические способы достижения этой цели, Несмотря иа различия в терминологии различных областей применения, оии обладают некоторыми общими признаками. ° Существует двунаправленный поток информации, от нижнего слоя к верхнему, и наоборот. ° Более высокие уровни часто связаны с теми аспектами динамики системы, которые требуют длительной обработки, которые шире по объему информации (зсоре) или имеют более дальний горизонт.
° При перемещении от нижнего слоя к верхнему наблюдается повышение интеллек- та наряду с понижением точности. ° На более высоких уровнях понижается зернистость (йгапц!апгу) (т.е. повышается уровень абстракции). В главе 1 рассмотрение вопросов нейронных сетей было начато с описания человеческого мозга — источника мотивации нейронных сетей — как гигантской системы обработки информации. Поэтому мы и завершаем книгу кратким описанием интеллектуальных машин, которые осуществляют интеллектуальную обработку информации.
Борьба за создание интеллектуальных машин продолжается. Библиография 1. Аагтз Е. апб !. Когзт. 81ши1атеб Аллеа!т8 апт! Во1тгтпапп МасЫпев: А БтосЬазбс АргоасЬ то СоптЬтпатопа1 Орт1ш1хатюп апб Хеига1 Солтрибп8, Хеит Уог1т: %т1еу, 1989. 2. АЬагЬапе1 Н.!3.!. Апа1угбз оГ ОЬзегчед СЬаобс Пата, Хетч Уог1с: Брпл8ег Чег1а8, 1996. 3. АЬгаЬаш К.Н. апд С.!3. 8Ьатч.
!3упаш!сз оГйе Оеошетгу оГВеЬачюг, Кеаб!п8, МА: Адб!воп-%ез!еу, 1992. 4. АЬи-МовтаГа У.8. "Нштз", Хеига! сошритабоп, 1995, чо!. 7, р. 639 — 671. 5. АЬи-МозтаГа У.8. "!.еапт1п8 6ош Ь)птв 1п Хеига1 Хепчог)тз", 3оигпа1 оГ Сотр1ех1ту, 1990, чо1. 6, р. 192-198. 6. АЬи-Мозтара У.Б. "ТЬе Чари!!т-СЬегчопеп!т1в !3ппепв)оп: !пГоппа6оп Чегзиз Сошр1ехбу тп !.еаплп8", Хеига1 СошрШатюп, 1989, чо!.
1, р. 312 — 317. 7. АЬи-МовтаГа У.Б. апд !.М. Бт. 3аст!иев. "!и!оппатюп сарае)ту оГ йе Норбе!б тобе!", 1ЕЕЕ Тгапзасбопв оп 1пГоппат)оп ТЬеоту, 1985, чо1. 1Т-31, р. 461-4б4. 8. Ас1теплап Р.Ь. "1пте11т8епсе", 1п Б.С. БЬар1го, ей Епсус1ореб!а ор Агббста1 !пте1118епсе, Хетч Уог)т: %т!еу !!птегзс)епсе) 1990, р. 431-440. 9. Ас!т!еу !3.Н., О.Е. Нтптоп апб Т.!. Яе!потчв!т1. "А 1.еапил8 А18обйт !ог Во1тгшапп МасЫпев", Со8п)т!че Бс!епсе, 1985, чо!. 9, р. 147 — 1б9.
10. Атуег Б.Ч.В., Х. Х!гап)ап апд К Га!!в!де. "А йеогебса! !пчезб8абоп што йе регГолпапсе оГ йе Норбе16 тподе!'*, 1ЕЕЕ Тгапзастюпв оп Хеига1 Хеттчог1тз, 1990, чо1. 15, р. 204-215. 11. А)геллап М.А., Е.М. Вгачеппап апд 1..1. Когопоег. "ТЬеогебса1 Гоипдат)опз ор йе ротепба! Йлст!оп шейся тп раиегп гесо8п!т!оп 1еатп)п8", Аитошатюп апд Кепюте Соптго!, 1964, чо!. 25, р.