Разработка контроллера на основе нейронной сети для диагностирования трибосопряжений в вакууме (статья) (778962), страница 2
Текст из файла (страница 2)
Оценив необходимое число весов, можно рассчитать число нейронов в скрытых слоях, например, для двухслойной сети это число составит:
L=Lw/n+m. (9)
Также известны и другие формулы для оценки, например:
2(n + L + m)<=N<=10 (n + L + m), (10)
N/10 – n – m <= L <=N/2 – n – m. (11)
Однако эти формулы не дают корректного ответа при малой выборке.
В ряде случаев целесообразно использовать сети с большим числом слоёв [3]. Такие многослойные нейронные сети могут иметь меньшие размерности матриц синаптических весов нейронов одного слоя, чем двухслойные сети, реализующие то же самое отображение.
В соответствии с теоремой Хехт-Нильсена получается двухслойная нейронная сеть с (2 *5 +1) = 11 нейронами в скрытом слое. В соответствии с изложенными выше формулами число нейронов в скрытых слоях будет следующим:
0<= число нейронов<=24 в соответствии с (11), т.е. можно выбирать значения нейронов в скрытом слое в этом интервале.
В результате приведенного анализа было предложено создать 3 различные нейронные сети и протестировать их с использованием экспериментальных данных. Данные сети имеют следующую архитектуру:
-
Нейронная сеть с одним скрытым слоем, имеющем 11 нейронов (Рис. 3).
-
Нейронная сеть, с двумя скрытыми слоями с 6 нейронами в каждом (Рис. 4).
-
Нейронная сеть с 3 скрытыми слоями и 8 нейронами в каждом скрытом слое (Рис. 5).
1.2 ОБУЧЕНИЕ СЕТИ
В задаче обучения нейронной сети принадлежность представителей обучающей выборки к тому или иному классу известна с вероятностью, равной единице, т.е. учитель даёт точное указание, к какому классу относится сигнал из обучающей выборки. При самообучении сигналы из обучающей выборки не сопровождаются указанием об их принадлежности тому или иному классу, и вероятность принадлежности обучающей выборки, в простейшем случае с двух модальным распределением, к классам, соответствующим каждой моде равно 0.5.
Для данной работы решено воспользоваться методом обратного распространения ошибки – обучение с учителем. Алгоритм обратного распространения ошибки – это итеративный градиентный алгоритм обучения, использующийся с целью минимизации среднеквадратичного отклонения текущих значений от требуемых на выходе для многослойной нейронной сети с последовательными связями.
Процесс обучения описывается следующими шагами:
-
Сети попеременно, в случайном порядке предъявляются все тренировочные образы, чтобы сеть не забывала одни, по мере запоминания других. Подать на вход сети один из возможных образов и в режиме обычного функционирования сети, когда сигналы распространяются от входов к выходам, рассчитать значения последних по формуле:
Si(q) = i=L yi(q-1)wij(q), (12)
где: L – число нейронов в слое (q-1) с учётом нейрона с постоянным выходным состоянием +1, задающего смещение; Si(q) - взвешенная сумма входных сигналов j-го нейрона в слое (q); yi(q-1)wij(q) – i – й вход нейрона j слоя q.
yj(q) = f(sj(q)), (13)
где f(s) - функция активации нейрона.
yr(0) = xr, (14)
где xr –r –ая компонента вектора входного образа.
-
Рассчитать (Q) для выходного слоя по формуле:
j(Q) = (yj(Q) – dj)dyj/dsj. (15)
Рассчитать по формуле:
w(Q)ij = -j(q)yi(q-1). (16)
или:
w(Q)ij(t) =- (w(q)ij(t-1) + (1 - )j(q)yi(q-1)), (17)
где - коэффициент инерционности; t – номер текущей итерации изменения весов w(Q) слоя Q.
-
Рассчитать по формулам:
j(q) = [r j(q+1) wjr(q+1)]dyj/dsj. (18)
и (16) или (18) и (17) соответственно j(q) и w(Q) для всех остальных слоёв, q = (Q-1)…1
-
Скорректировать все веса в нейронной сети:
w(q)ij(t) = w(q)ij(t)(t-1) + w(q)ij(t). (19)
-
Если ошибка сети существенна, перейти на шаг 1. В противном случае – конец.
Ниже приведена схема, описывающая процесс обучения.
Рис. 6. Обобщённая схема обучения нейронной сети
2. ТЕСТИРОВАНИЕ СЕТЕЙ С ИСПОЛЬЗОВАНИЕМ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ
Для оценки применимости нейронных сетей для описания состояния вакуумного механизма – подшипника, необходимо провести эксперимент, с использованием реальных данных, полученных при работе реального механизма.
Нами использовался пакет Statistica Neural Network, имеющий удобный интерфейс и широкий набор средств для работы и анализа работы нейронных сетей. Для доказательства применимости данного математического аппарата для решения задачи использовались 60 элементов обучающей выборки [5], в то же время не ставилась цель получения высокой точности. После завершения обучения и запуска сетей с итоговыми весовыми коэффициентами на тестовом множестве для выбранных архитектур были получены результаты, представленные на рис. 7 - 12.
Полученные результаты показывают, что сеть с 1-м скрытым слоем более соответствует имеющемуся процессу в пиковых значениях, однако сети с более сложной архитектурой лучше моделируют сам процесс. Более сложным сетям менее свойственно откликаться на случайные значительные изменения выходного (обучающего) сигнала, сети воспринимают этот сигнал как шум, и игнорируют его. Так, например, на рис. 8 сеть с 1-м скрытым слоем имеет большую ошибку в средней части графика распределения ошибки, т.к. она плохо аппроксимирует функцию, описывающую процесс, но в тоже время в правой части графика ошибка сети меньше, т.к. она почти полностью повторяет всплески значений обучающей функции. При грубой оценке результатов работы сетей лучшие результаты имеет сеть с 2-мя скрытыми слоями, рис. 10, как более точно воспроизводящая функцию, описывающую модель и при этом не очень сложную по структуре, а следовательно и менее трудоёмкую по времени вычислений.
Также необходимо отметить, что хотя для обучения сети использовались неподготовленные данные и не была проведена оценка применимости параметров, сеть достаточно хорошо смоделировала основной ход изучаемого процесса во всех трех случаях.
Для того чтобы увеличить точность аппроксимации нейронной сетью функции, описывающей поведение системы, в будущем планируется принять следующие меры:
-
Увеличить обучающую выборку. Имеет смысл провести эксперименты на нескольких сетях в том числе с более сложной архитектурой, для получения более точных значений.
-
Разделить обучаемые и тестируемые выборки, т.е. использовать для обучения и тестирования разные наборы данных.
-
При каждом цикле обучения сети располагать обучающие образы в случайном порядке, что поможет сети абстрагироваться от соответствия определённым значениям выборки и поможет приблизить итоговую функцию к функции, описывающей реальный процесс.
-
Ввести при обучении случайные шумы, препятствующие реакции системы на резкие колебания, смазывающие значения и позволяющие приблизить итоговую функцию к функции, описывающей реальный процесс, а не привести сеть к точному соответствию обучаемым векторам.
-
Провести эксперимент с наибольшим числом входных параметров и определить те параметры, которые в наибольшей степени влияют на итоговый результат, т.е. чувствительность сети к параметрам.
-
Необходимо оценить точность получаемых результатов при одной и той же архитектуре и методике обучения при использовании в нейронах сети различных активационных функций, поскольку использование различных функций накладывает свои особенности на процесс обучения и работы сети.
Для того, чтобы получить на выходе коэффициент неисправности механизма необходимо будет обучать сеть с целевыми векторами, задавая в качестве выходного сигнала соответствующие значения в интервале [0;1].
ВЫВОДЫ
Разработаны нейронные сети для оценки состояния трибосопряжений, работающих в вакууме. Сравнение результатов моделирования и экспериментальных данных показало их хорошее совпадение, что свидетельствует об адекватности модели и ее применимости в системе диагностики.
Результаты моделирования показали, что более сложные сети более точно аппроксимируют исходную функцию, однако после некоторого порога точности, с возрастанием количества элементов точность аппроксимации возрастает не значительно, но значительно возрастает время поиска результата.
Также следует отметить, что сети с более сложной архитектурой менее подвержены воздействию случайных шумов, искажающих сигнал. Поэтому для более полного отражения (моделирования) особенностей процесса обучающая (тестирующая) выборка должна составлять как минимум несколько сотен обучающих (тестовых) множеств.
Рис. 7. График распределения величин ошибок по элементам обучающей/тестовой выборки
Рис. 8. График желаемых и реально полученных значений на выходе нейронной сети
Рис. 9. График распределения величин ошибок по элементам обучающей/тестовой выборки
Рис. 10. График желаемых и реально полученных значений на выходе нейронной сети
Рис. 11. График распределения величин ошибок по элементам обучающей/тестовой выборки
Рис. 12. График желаемых и реально полученных значений на выходе нейронной сети
ЛИТЕРАТУРА
-
А.С. Проников. Надёжность машин. М.:Машиностроение, 1978. 592 с.
-
В.В. Круглов, В.В. Борисов. Искусственные нейронные сети. Теория и практика. – 2-е изд., стереотип. М.: Горячая линия – Телеком. 2002. 382 с.
-
Галушкин А.И. Теория нейронных сетей. Нейрокомпьютеры и их применение. М.: ИПРЖР. 200. 416 с.
-
Механика и физика точных вакуумных механизмов: Моногр. Под ред. Е.А. Деулина. Владим.гос. ун-т. Владимир. 2001. 328 с.
-
А.Г. Пересадько. Система диагностики механических элементов вакуумного оборудования. Автореферат дисс. ... к.т.н. М.: МГТУ им. Н.Э. Баумана. 2000.
349














