Усилитель напряжения демпфера на основе МР-эластомера (вариант 14)
Описание файла
Документ из архива "Усилитель напряжения демпфера на основе МР-эластомера (вариант 14)", который расположен в категории "". Всё это находится в предмете "нейросетевое моделирование сложных технических систем" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "курсовые/домашние работы", в предмете "нейросетевое моделирование сложных технических систем" в общих файлах.
Онлайн просмотр документа "Усилитель напряжения демпфера на основе МР-эластомера (вариант 14)"
Текст из документа "Усилитель напряжения демпфера на основе МР-эластомера (вариант 14)"
Товмаченко Д.К. МТ11-38(м), Вариант №14
Объект – усилитель напряжения демпфера на основе МР-эластомера на основе TDA2050. Напряжение питания усилителя – биполярное, 25 В и -3 В. Управляющее напряжение поступает с блока ЦАП и составляет 1-3 В. Усилитель имеет недостаточное охлаждение, в связи с чем температура усилителя постоянно повышается с некоторым небольшим шагом.
Проводилось измерение значения перемещения ёмкостным датчиком в мВ. Тарировочный коэффициент датчика для перевода в микрометры составляет , однако в отчёте представлены непосредственные результаты измерения, т.е. в мВ. Время измерения составляет порядка 40 с. Измеряемая величина – перемещение(мВ). Соответственно, допустимое значение ошибки – 0,1 мкм, или 0,003 мВ.
Рисунок 1 – Схема усилителя
Таблица 1. Анализ факторов
Наименование фактора | Тип | Единица измерения | Диапазон варьирования |
Время | Входной | с | 0-40 |
Температура | Входной | ֩C | 50-100 |
Входное напряжение | Входной | В | 1-3 |
Перемещение | Выходной | мВ | - |
Количество измерений датчика – 3451. Выполним разбиение данных: для обучающего множества возьмём две трети измерений (2158), т.к. для обучения нужно наибольшее количество измерений, четверть – для контрольного множества (862), оставшееся количество (431) возьмём для тестового множества.
В качестве задачи построения нейросети лежит задача регрессии. Будут тестироваться 3 нейросети: RBF с количеством нейронов в скрытом слое 16 (по условию задания), MLP с 3 слоями (многослойный персептрон является универсальным типом нейросети, в нём удобно работать при большом количестве наблюдений, 3 слоя берутся в первом приближении как предположение, что входные параметры независимо влияют на выходной), MLP с 4 слоями (обоснование выбора типа сети то же, 4 слоя берутся из расчёта, что температура является функцией от времени и входного напряжения, однако время и напряжения также оказывают влияние на выходное напряжение).
В дальнейшем выбор способа обучения и параметров процесса будут иллюстрироваться в программе. Для обработки будет использована программа Statistica 7. (МОЯ ВЕРСИЯ БЫЛА НА АНГЛИЙСКОМ, ПОЭТОМУ НЕ ВСЁ ПУНКТЫ НАСТРОЙКИ Я РАЗОБРАЛ ДО КОНЦА, НАПРИМЕР, КАК Я НИ ПЫТАЛСЯ, ПРОГРАММА НАОТРЕЗ ОТКАЗЫВАЕТСЯ СТРОИТЬ ГРАФИК ОШИБКИ)
Рисунок 2 – Таблица параметров в Statistica 7
Выбираем тип анализа – регрессия:
Выбираем входные и выходные факторы:
Включаем использование условий выбора:
Количество строящихся и выдаваемых сетей: 3
Самая качественная сеть будет выбираться исходя из наименьшей ошибки на контрольном множестве:
Выбираем типы строящихся сетей:
Задаём сложность строящихся сетей:
Для MLP задаём выходную кодировку (я сначала думал, что это задание функции ошибки, но насколько я понял, по умолчанию стоит линейная функция):
Задаём нужную информацию на выход:
Вводим разбиение данных:
Запускаем процесс обучения:
Результат обучения:
По результатам обучения определена наилучшая сеть, ей оказалась RBF. Наилучшая ошибка обучения составила 0,0157, что в 5 раз превышает требуемую. Это связано с тем, что измерения проводились несколько бессистемно, только для замера следящего режима работы демпфера. Кроме того, температура измерялась вручную, что приводит к большой случайной погрешности.
Рисунок 3 – Архитектура сети RBF
Для этой сети проведём повторное обучение.
Изменим разбиение:
И количество нейронов в скрытом слое:
Обучение:
Как видно из иллюстраций, на этот раз ошибка обучения составила 0,007, что более чем в два раза лучше, чем в прошлый раз. Это связано с увеличением количества нейронов в скрытом слое. Количество элементов в обучающем слое было уменьшено на 431 элемент, эти элементы были перенесены в контрольное множество. Имеет место предположение, что с увеличением количества нейронов в скрытом слое эффективность обучения значительно возросла (в 2 и более раз), тогда как изменение количества элементов обучающей выборки менее чем на четверть на внесла значительных изменений относительно изменений, вызванных увеличением скрытого слоя. Чтобы добиться приемлемой ошибки, можно вернуть перенесённые элементы в обучающее множество, таким образом можно добиться требуемой ошибки не производя дальнейшего усложнения архитектуры сети (т.е. время обучения увеличиться незначительно). Среднее время обучения сети составило около 6 секунд.
Рисунок 4 – Архитектура новой сети
Выводы:
К достоинствам нейросетевого моделирования можно отнести быструю работу с большим количеством разнородных данных с получением приемлемого результата. Недостатком является сложность в понимании выводимых данных, т.к. даже обученная сеть с маленькой ошибкой может неадекватно отразить реальный процесс, если априори данные были введены с ошибкой, при этом возникнут сложности в возникновении этой ошибки (здесь не имеется ввиду грубая ошибка, имеется ввиду общее отклонение данных, вызванное неправильным проведением эксперимента).
В рассматриваемой задаче сложно оценить пригодность метода. Построенный график процесса примерно отражает происходившее в эксперименте, и ошибка обучения поддаётся настройке с последующей минимизацией. Однако не ясно до конца сможет ли сеть адекватно предсказывать выходное значение при значительном изменении параметров, скажем, в случае нормального охлаждения сможет ли сеть с данной архитектурой вывести верный результат, так как в её архитектуре не отражена связь между температурой и входным напряжением.
Таким образом, возможность сети MLP с двумя скрытыми слоями к предсказанию выходного значения могут оказаться выше при значительном увеличении или уменьшении шага варьирования одного или нескольких факторов. Сеть MLP с одним слоем в этом смысле ограничена, так как имея один скрытый слой, она имеет ограниченное число нейронов в нём по сравнению с RBF.