Секция 4 - Нейросетевые технологии (1250001), страница 13
Текст из файла (страница 13)
Нейро-сетевые технологии0.25Второй проходh, м0.20.150.1Первый проход0.05002468101214L, мРис. 5. Зависимость глубины копания от перемещения.0.25Второй проходh, м0.20.150.1Первый проход0.050010203040t, с5060708090Рис. 6. Зависимость глубины копания от времени.На втором этапе создания модели необходимо обосновать ее структуру. В настоящей работе приведены результаты моделирования как с помощью нерекуррентной нейронной сети прямого распространения сигнала(программная реализация в MATLAB + Neural Network Toolbox), так и рекуррентной динамической сети (MATLAB + Neural Network Based SystemIdentification Toolbox). Структура нейросетевой модели без обратных связей выглядит следующим образом.Входами модели являются скорость тележки v(t ) и глубина копанияh(t ) . Выход модели — сила сопротивления перемещению тележки F (t ) .Ярко выраженная периодичность колебаний v(t ) обусловлена свойствамиканатного привода тележки.
Амплитуда F (t ) зависит от глубины копанияh(t ) . Частотные характеристики силы F (t ) связаны со спектром скоростиv(t ) . В связи с этим нейросетевая модель должна реализовать функциюF = f (v, h ) .Для решения такой задачи выбрана двухслойная нейронная сетьпрямой передачи сигнала (рис. 7). Отсутствие обратных связей гарантирует устойчивость модели.
Сеть имеет один скрытый слой нейронов с нелинейными функциями активации, что делает возможной аппроксимациюнелинейных зависимостей. Выходной слой содержит 1 нейрон с линейнойфункцией активации, необходимой для экстраполяции зависимостей [2].Для моделирования динамической системы на входах сети установленылинии задержки TDL [1, 3].1303Труды II научной конференции «Проектирование инженерных и научных приложений в среде MATLAB»Скрытый слойВходыv(t)Выходной слой[0:1]F(t)h(t)[0:5]12 нейронов1 нейронРис.
7. Структура нерекуррентой нейросетевой модели строительной машины.Третий этап построения модели — подготовка входных и выходныхсигналов. Для того, чтобы динамическая нейросетевая модель имела минимальное количество входов, следует обосновать частоту дискретизациисигналов и определить необходимое количество задержанных входов. Дляэтих целей предлагается методика, основанная на цифровой обработкесигналов.Проведен спектральный и корреляционный анализ входных и выходных сигналов с использованием пакета расширения MATLAB SignalProcessing Toolbox.
По спектрограммам и графикам спектральной плотности выбрана частота дискретизации 10 Гц для всех сигналов. При изменении частоты дискретизации выполнена низкочастотная фильтрация сигналов с целью устранения «ложных частот» [4]. Частота дискретизации силыF (t ) снижена в 20 раз (с 200 до 10 Гц), частота дискретизации глубины копания h(t ) и скорости v(t ) повышена примерно в 3 раза.
При низкочастотной фильтрации применен дискретный нерекурсивный фильтр, имеющийся в составе MATLAB Signal Processing Toolbox. Результат устранения«ложных» высоких частот приведен на рис. 8.По графикам корреляционных функций входных сигналов v(t ) и h(t )определены длины линий задержки на входе модели. Временной интервал,на котором коэффициент автокорреляции сигналов превышает 0,8, составляет 0,1 с для скорости и 0,5 с для глубины копания (рис. 9). Длина линийзадержки входов составляет 1 и 5 соответственно. Согласно теореме Колмогорова, достаточное число нейронов в скрытом слое не превышает2 N + 1 , где N — количество задержанных входов [3]. Количество нейронов в скрытом слое принято равным 12 (рис.
7).1304Секция 4. Нейро-сетевые технологииVelocity spectra102000-10-20Power Spectral Density (dB/Hz)Power Spectral Density (dB/Hz)Non-filtered V eloc ity s pec tra-20-30-40-50-60-70-80-40-60-80-100-120-1400а)123Frequenc y (Hz )45-160012345Frequency (Hz)б)Рис.
8. Спектральная плотность мощности сигнала v(t ) :а) до фильтрации; б) после фильтрации «ложных частот».H CorrelationVelocity Correlation10.80.80.60.60.40.40.20.200-0.21a)234512345б)Рис. 9. Автокорреляционные функции входных сигналов:а) скорости v(t ) ; б) глубины копания h(t ) .Для программной реализации нейросетевой модели использован пакет MATLAB Neural Network Toolbox. Поскольку в его составе нет готовойфункции для моделирования сети выбранной структуры, применен конструктор класса сети «network» [5]. Визуализация структуры сети с помощьюблоков Simulink приведена на рис.
10. Для обучения сети применен градиентный алгоритм — метод Левенберга-Марквардта (‘trainlm’). За критерий оценки качества обучения принят средний квадрат ошибки (‘mse’).Начальные значения весов и смещений выбраны случайным образом. Данная нейронная сеть представляет собой нерекурсивный нелинейныйфильтр.Результаты обучения нейросети и моделирования показывают, чтопосле 800 циклов обучения модель верно воспроизводит характер изменения силы F (t ) в зависимости от v(t ) и h(t ) (рис. 11). Отклонения прогнозируемых значений F (t ) от фактических обусловлены прежде всего отсут1305Труды II научной конференции «Проектирование инженерных и научных приложений в среде MATLAB»ствием обратных связей. Одним из возможных решений этой проблемыявляется использование рекуррентных нейронных сетей [1, 3, 5].ВходыСетьВыходСлои нейроновInput 1vp{1}Input 2y{1}Fp{2}h1p{1}p{1}p{2}a{1}a{1}Lay er 12p{2}a{1}Neural Networka{2}Lay er 21y {1}a{1}1T DLweightp{1}Delays 1IW{1,1}2T DLweightp{2}Delays 2IW{1,2}Скрытый слой1netsumtansiga{1}biasb{1}Выходной слой1TDLweighta{1}Delays 1LW{2,1}1netsumbiaspurelina{2}b{2}F, НРис.
10. Реализация нерекуррентной нейросетевой моделив MATLAB Neural Network Toolbox.3.33.23.132.92.82.72.62.52.42.3Обучение сетиx 10 4МоделированиеЭкспериментМодель4550556065t, сРис. 11. Результаты обучения нерекуррентной сети и моделирования.Вычислительный инструментарий MATLAB Neural Network Toolboxне предназначен для моделирования и обучения сложных рекуррентныхсетей.
Поэтому использован дополнительный пакет расширения MATLABNeural Network Based System Identification Toolbox (NNSYSID), разработанный в Техническом университете Дании, автор Magnus Nørgaard [6].Выбрана нейросетевая модель авторегрессии — скользящего среднего с внешними входами (NNARMAX), имеющая обратные связи (рис.
12).1306Секция 4. Нейро-сетевые технологииКоличество задержанных выходов определено по корреляционной функции выходного сигнала F (t ) аналогично рис. 9. Выходной сигнал моделиформируется с учетом его задержанных значений, а также задержанныхзначений ошибки e(t ) .Задержанные ошибкиСкрытый слой нейронов(нелинейные функции активации)e(t-1)e(t)Выходной слой нейронов(линейная функция активации)Задержанные входыh(t-5)h(t-4)h(t-3)h(t-2)h(t-1)h(t)F(t+1)v(t-1)v(t)Задержанные выходыF(t-4)F(t-3)F(t-2)Веса, смещенияF(t-1)F(t)Веса, смещенияРис. 12. Структура рекуррентной нейросетевой динамической модели,реализованной в пакете расширения MATLAB NNSYSID.Предварительное масштабирование входных и выходных обучающих сигналов путем приведения их к нулевому математическому ожиданию и единичной дисперсии упрощает обучение нейросети (рис.
13). Введение обратных связей снижает время обучения на два порядка. Для обучения рекуррентной нейронной сети также применен метод ЛевенбергаМарквардта. Рекуррентная динамическая нейросетевая модель показываетлучшую точность прогнозирования (рис. 14).Предлагаемая методика идентификации нелинейных динамическихсистем базируется на применении программной платформы MATLAB,обеспечивающей единый подход к формированию, представлению и цифровой обработке экспериментальных данных, открытость, гибкость приработе с большими массивами данных и одновременно набор мощныхсредств анализа и моделирования.
Математическое моделирование на ос1307Труды II научной конференции «Проектирование инженерных и научных приложений в среде MATLAB»нове динамических нейронных сетей в MATLAB предоставляет новыевозможности для исследования проблем управления и автоматизации.Масштабированные входы50h(t)v(t)-5-1035440455055455055Масштабированный выход F(t)20-23540Рис. 13. Масштабирование входных и выходных обучающих сигналовв пакете расширения MATLAB NNSYSID.F(t), H43.2x 10Модель32.82.62.42.20Эксперимент12345t, c678910Рис.
14. Прогнозирование с помощью обученной рекуррентнойнейросетевой динамической модели NNARMAX.Литература1. Интеллектуальные системы автоматического управления / Под ред.И. М. Макарова, В. М. Лохина.— М.: Физматлит, 2001.— 576 с.2. Нейронные сети. STATISTICA Neural Networks.— М.: Горячая линия–Телеком, 2001.— 182 с.3.
Осовский С. Нейронные сети для обработки информации.— М.: Финансы и статистика, 2002.— 344 с.4. Сергиенко А. Б. Цифровая обработка сигналов.— СПб.: Питер, 2002.—608 с.5. Медведев В. С., Потемкин В. Г. Нейронные сети. MATLAB 6.— М.:Диалог-МИФИ, 2002.— 496 с.6. Nørgaard M. Neural Network Based System Identification Toolbox: Tech.Report. 97-E851, Department of Automation.— Technical University ofDenmark, 1997.1308Секция 4. Нейро-сетевые технологииУДК 621.391СРАВНЕНИЕ ЭФФЕКТИВНОСТИ РЕАЛИЗАЦИИАЛГОРИТМОВ ОБУЧЕНИЯ НЕЙРОСЕТИ В ЗАДАЧЕВОССТАНОВЛЕНИЯ ИЗОБРАЖЕНИЙХрящёв В.