Главная » Просмотр файлов » Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение

Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 43

Файл №778912 Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение) 43 страницаБодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912) страница 432017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 43)

Любая из перечисленных процедур в отдельности не в состоянии предусмотреть все ситуации, возникающие при работе с реальным объектом, а потому имеет смысл использовать универсальный алгоритм обработки и кодирования сигналов объекта перед их подачей в нейроэмулятор. 17 КОДИРОВАНИЕ СИГНАЛОВ В ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЯХ При обработке сигналов в режиме реального времени оценки среднего и стандарта целесообразно вычислять с помощью рекуррентных процедур, описанных в подразделе 4.7.6 ~(1+1) = ~~(й)+ (~ф+ 1) — ~(/с)), 1 1+1 1 х~~ +1) ~ х'х)+ 11~1®+ 1) ~1)~+ 1)) ~~ - ЙЬ 1+1 п,<а-О=,/,'й+6 (17.9) (17.10) 2(/х) = Ьо + Ь2(/ц), где параметры Ь, и Ь задают требуемые интервалы. Вводя интервал возможного изменения сигнала Г1й) (17.11) ~паах Епцп и интервал варьирования масштабированной переменной 3й) (17.12) ~ахах ~пап (обычно полагается 0.1 < 2(й) < 0.9 для сигмоидальной функции и — 0.9 < Яй) < 0.9 для гиперболического тангенса 17)), а также масштабирующий параметр Аа А, =='= А,- ~ахах аппп (17.13) ааааа ~пап можно записать преобразование (17.10) в виде и реализуемых с помощью нейронов, приведенных на рис.

4.31 и 4.32. Эти нейроны позволяют осуществлять центрирование и нормирование переменных в темпе с процессом адаптивной идентификации, однако для нейроэмуляции этого явно недостаточно. Дело в том, что если сигналы объекта являются стохастическими последовательностями, подчиняющиеся, например, нормальному закону распределения, то и область изменения центрированного и нормированного сигнала Г(й) будет лежать, как минимум, в интервале 1-3, 3~, что шире области изменения стандартных функций активации. В связи с этим необходимо провести масштабирование сигнала ~~1®) с помощью линейного преобразования (17,14) ~(~) (аппп ~ ~2~пип)+ ~-~ е(~) или с учетом (17.3) ~ 2(Й) — 2(/с) (й) ь.~ ~ ~~~, ) 2 ' о (й) """ о,(Ф) (17.15) Для реализации выражения (17.15) целесообразно ввести в рассмотрение нейрон-кодер входных сигналов нейроэмулятора х,.

(Й), схема которого приведена на рис. 17.1, а условное обозначение — на рис. 17.2. Рис. 17.1 — Схема нейрона-кодера входного сигнала а, (й) - стандарт х,(/с) - среднее х, (Й) - кодированный сигнал х, (/с) Лх - масштабирующий параметр х; ® — центрированный, нормированный сигнал Рис. 17.2 — Нейрон — кодер входного сигнала 17 КОДИРОВАНИЕ СИГНАЛОВ В ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЯХ Не менее важную проблему, чем кодирование входных сигналов, составляет обратное преобразование — декодирование к реальным значениям переменных объекта управления.

Для решения этой задачи можно воспользоваться соотношениями вида (17.1б) или е(й) = ' Я(й)+(т(Ус)+о.(й)(Г,„— 2,„А )), о,(й) „ А, (17.17) которые могут быть реализованы в форме нейрона-декодера выходного сигнала у,. (/с), приведенного на рис. 17.3, 17.4. ! !!!!и у, (Ф) 0,® Рис. 17.3 — Схема нейрона-декодера выходного сигнала /П1!И ! и!!и у,й) Рис.

17.4 — Нейрон — декодер выходного сигнала 295 а,® ~И, Ад,. Я, (7с) и,(й) < Т(й) = 2(/с)А,з ь(~,.„— А '2„,,„)„ е(й) =а (/с)7(й)+Г(к) х,(Сс) х, ()с) , (сс) , (/с) „,(сс) х„(/с ) т, ()с) т (Ус) Рис. 17.5 — Схема нейроэмуляции объекта управления На рисунках ~) (й) обозначает сигнал на выходе нейроэмулятора ссс,,„< у,. (й) < И) „,„„а у,. (Й) - его декодированное значение, являющееся оценкой выходного сигнала реального объекта сс)) ()с). Применение подобных кодирующих и декодирующих нейронов обеспечивает дополнительные возможности нейросетевым системам эмуляции, управления, прогнозирования и т.п., предназначенным для работы в реальном времени.

При этом нейронная сеть дополняется слоями из вспомогательных нейронов так, как это показано на схеме нейроэмуляции объекта управления, приведенной на рис. 17.5. В такой системе входы реального объекта х,(1с),х,(1с),...,х„(1с) через слой кодирующих нейронов С поступают в нейроэмулятор, будучи преобразованными к виду х,(й),х2(й),...,х„()с). Алгоритм обучения на основе выходов нейронной сети у,(1с),у,(й),...,у ()с) и сигналов реального объекта И,(/с), И., (Й),..., И,„(Й), пропущенных через слой кодирующих нейронов, производит настройку сети путем минимизации принятой функции от ошибок обучения е,.

(1с) = Н) (й) — ч) ()с) . Обученный таким образом нейроэмулятор, схема которого приведена на рис, 17,5, будет представлять собой модель реального объекта, при этом выходные сигналы нейросети у) (й) с помощью декодирующих нейронов 1) преобразуются в оценки у, (й) фактических выходов И,. (/с). 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ х' (1) х 12) х, (1) х, (1) ". х„(1) х,(2) х,(2) " х (2) х, (/с) х, (Ус) " х„(/с) х (Ус) (18.1) )с(Х) = х,(1~с) х,(М) " х„(~с) х 1М) образованная массивом из М л-мерных векторов х(й) =1х,1й)„х,(/с),...,х„(Ус))~, и автокорреляционная (ихп)-матрица Я М Л(М) = — ~ (х(й) — х(М))(х(/с) — х(У))' = — ~ х(й)х'(Ус), (18.2) 1~ с=1 где х(7с) = — ~~1 х(1с), Х (18.3) (18.4) хИ) = х(/с) — хЖ) центрированные относительно среднего по массиву данных векторы измеряемых показателей. Важной проблемой, возникающей при обработке больших массивов наблюдений, является сжатие данных с целью выделения наиболее существенной информации и выявления неких латентных факторов, неявным образом определяющих природу изучаемого явления.

Одним из наиболее эффективных подходов к решению этой проблемы является аппарат факторного анализа ~240, 241~, нашедший широкое применение в задачах обработки эмпирических данных в различных областях: психологии, социологии, технике, экономике, медицине, криминалистике и т.д.

Основная идея факторного анализа, допускающая наличие априорно неизвестных скрытых факторов, ведет к следующей неформальной задаче: наблюдая большое количество измеряемых параметров (показателей), выявить небольшое число параметров-факторов, определяющих в основном поведение измеряемых параметров, или иначе: зная значения большого количества функций измеряемых параметров, установить соответствующие значения общих для всех функций аргументов-факторов и восстановить вид этих функций.

Исходной информацией для факторного анализа является (Ж хп)-матрица наблюдений Одним их наиболее распространенных и эффективных методов нахождения факторов является метод главных компонент или компонентный анализ, нашедший широкое применение в задачах сжатия данных, распознавания образов, кодирования, обработки изображений, спектрального анализа и т.п. и известный также в теории распознавания образов как преобразование Карунена-Лоэва 195, 9б).

Задача компонентного анализа состоит в проецировании векторов данных из исходного п-мерного пространства в т-мерное (т < и) пространство главных компонент и сводится к поиску системы и,, и „..., и,„ортонормальных собственных векторов матрицы Е(М) таких, что и, = (и „, и,„,..., и „,)~ соответствует наибольшему собственному значению Я„матрицы Л(Ф), и,- второму по величине собственному значению Я,, и т.д. Иначе говоря, проблема сводится к отысканию решений матричного уравнения (Л(М) — Л,.1„)и, = О (18.5) таких, что 1, > Л, » ".

1„, > е > О и )(и,. (( = 1. Размерность же пространства главных компонент и определяется, как правило, из эмпирических соображений и требуемой степени сжатия массива данных. Таким образом, в алгебраических терминах решение факторной задачи тесно связано с проблемой собственных значений и нахождением ранга корреляционной матрицы; в геометрическом смысле — это задача перехода в пространство более низкой размерности с минимальной потерей информации; в статистическом смысле — это задача нахождения множества ортонормальных векторов в пространстве входов, «принимающих» на себя максимально возможную вариацию данных, и наконец, в алгоритмическом смысле — это задача последовательного определения набора собственных векторов и „и „...

„и,„путем оптимизации множества локальных критериев, формирующих глобальную целевую функцию ~18.6) при ограничениях и~и, =О )' ~1, и~и,. =1. Первая главная компонента и, может быть найдена максимизацией критерия (4.422) 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ < и 1(Ус + 1) = и1 (Ус) + уу(Ус) У1 (Ус)(х(Ус) — и1 (к) у1 (Ус)), у,(Ус) = '7(Ус)х(ус), и',(О) Ф 0 (18.8) может быть выделена первая главная компонента. Далее, следуя процедуре стандартного анализа главных компонент, из каждого вектора х(Ус), й = 1,2,..., М вычитается его проекция на первую главную компоненту и вычисляется первая главная компонента разностей, являющаяся второй главной компонентой исходных данных и ортонормальная первой.

Третья главная компонента вычисляется путем проекции каждого исходного вектора х(й) на первые две компоненты, вычитания этой проекции из х(ус) и нахождения первой главной компоненты разностей, являющейся третьей главной компонентой исходного массива данных. Остальные главные компоненты вычисляются рекурсивно согласно описанной стратегии. Именно эта идея рекурсивного вычисления главных компонент положена в основу алгоритма, предложенного Т.

Сэнгером [3321 и в модифицированной форме имеющего вид ~249~ иу(Ус+1) = и',.(Ус)+тУ(Ус)еу(Ус)Уу(Ус), еу(ус) = е,,(ус) — и у(ус)уу(ус), уу(Ус) = и'~(Ус)х(Ус), и',(О) ~ О, ео(Ус) = х(Ус), у = 0,1,2,...,щ, ту(ус) = г '(ус), г(ус) = иг(ус — 1) + /х(ус) /, 0 < а < 1. (18.9) Несложно видеть, что первая главная компонента вычисляется с помощью алгоритма Оя, далее проекции входных векторов на и,(ус) вычитаются из входов и разности обрабатываются следующим нейроном и т.д.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
7045
Авторов
на СтудИзбе
259
Средний доход
с одного платного файла
Обучение Подробнее