Определение соотношения атомов титана и азота в покрытии нитрида титана (пример) (778897), страница 2
Текст из файла (страница 2)
Рисунок 2 – Архитектура сети MLP 2-2-1-1
После этого, изменив архитектуру созданной сети (добавив по одному нейрону в каждый слой; рис. 3), проанализируем полученное решение.
Рисунок 3 – Архитектура сети MLP 2-3-2-1
Далее создадим линейную сеть (рис. 4), т. к. она быстро обучается, применяется для решения задач регрессии и может эсктраполировать выходные значения. Её решение сравним с полученными сетью MLP результатами.
Рисунок 4 – Архитектура линейной сети
5 Выбор способа обучения сети, функции ошибок
Для обучения сетей типа «Многослойный персептрон» (MLP) и «Линейная» выбираем алгоритм обратного распространения ошибки, при котором корректировка весов осуществляется после очередного наблюдения, что приводит к минимизации ошибки. Выбранная функция ошибок – квадратичная. При создании MLP-сетей для 1-ого и 4-ого слоёв назначаем функцию активации типа «Linear», для 2-ого и 3-го – типа «Logistic» (рис. 5).
Р
исунок 5 – Редактирование параметров сети
Для выбранного метода обучения предъявляем 300 эпох и назначаем оптимальные значения параметров обучения «Learning rate» и «Momentum» (рис. 6).
Рисунок 6 – Параметры обучения сети MLP
Для обоих слоёв линейной сети функция активации имеет тип «Linear». Параметры обучения те же, что и для сети MLP (см. рис. 6).
6 Обучение созданных нейросетей
Графический результат обучения сети MLP 2-2-1-1 представлен на рис. 7, распределение весовых коэффициентов – на рис. 8.
Рисунок 7 – Графики обучения сети MLP 2-2-1-1
Рисунок 8 – Распределение весовых коэффициентов сети MLP 2-2-1-1
Результат обучения сети MLP 2-3-2-1 представлен на рис. 9, распределение весовых коэффициентов – на рис. 10.
Рисунок 9 - Графики обучения сети MLP 2-3-2-1
Рисунок 10 – Распределение весовых коэффициентов сети MLP 2-3-2-1
Результат обучения линейной сети представлен на рис. 11, распределение весовых коэффициентов – на рис. 12.
Рисунок 11 - Графики обучения линейной сети
Рисунок 12 – Распределение весовых коэффициентов линейной сети
7 Оценка качества обучения сетей
Оценку качества обучения сети выполняют по регрессионной статистике (рис. 13).
Рисунок 13 – Регрессионная статистика сети MLP 2-2-1-1
Показателем качества обучения (S.D. Ratio) является отношение стандартного отклонения ошибки прогноза (Error S.D.) к стандартному отклонению данных (Data S.D.):
.
Так как этот показатель значительно меньше 1, то сеть обучилась хорошо. К тому же абсолютное значение ошибки ниже заданного (Abs E. Mean=0,019 0,05).
Регрессионная статистика сети MLP 2-3-2-1 представлена на рис. 14.
Рисунок 14 – Регрессионная статистика сети MLP 2-3-2-1
Показатель качества обучения сети MLP 2-3-2-1 равен:
.
Получили значение отношения много меньше 1. Данная сеть обучилась лучше, чем сеть MLP 2-2-1-1. Это связано с увеличением числа весовых коэффициентов и, как следствие, уменьшением ошибки обучения. Абсолютное значение ошибки ниже требуемого (Abs E. Mean 0,022
0,05).
Регрессионная статистика линейной сети представлена на рис. 15.
Рисунок 15 - Регрессионная статистика линейной сети
Показатель качества обучения данной сети равен:
.
Значение показателя значительно меньше 1. Сеть обучилась хорошо. Однако по сравнению с выше рассмотренными сетями хуже, так как имеет большее значение « ». Если не требуется высокая точность регрессии, то использование линейной сети предпочтительнее из-за простоты архитектуры и быстроты обучения. К тому же значение абсолютной ошибки меньше допустимой (Abs E. Mean
0,03
0,05). Однако для нашей системы точность определения содержания компонентов в покрытии важна, поэтому далее будем использовать сеть MLP 2-3-2-1.
8 Обучение сети с изменёнными параметрами
Уменьшение количества эпох до 100 для сети MLP 2-3-2-1 при неизменных остальных параметрах обучения приведёт к ниже представленной регрессионной статистике (рис. 16).
Рисунок 16 – Регрессионная статистика сети MLP 2-3-2-1 для 100 эпох
Параметр S.D. Ratio=0,8466601, что превышает значение при 300 эпохах, следовательно, сеть обучилась хуже. К тому же значение абсолютной погрешности Abs E. Mean 0,145, что превышает допустимое значение. Т. е. 100 эпох недостаточно для оптимального обучения созданной сети.
Регрессионная статистика при 500 эпохах представлена на рис. 17.
Рисунок 17 - Регрессионная статистика сети MLP 2-3-2-1 для 500 эпох
Показатель качества S.D. Ratio=0,03088, что почти совпадает со значением этого же параметра при обучении с предъявлением 300 эпох. Это означает, что увеличение числа эпох не приводит к увеличению точности регрессии, т. е. возможности сети таковы, что 300 эпох – оптимальное значение при обучении созданной нами нейронной сети для решения задачи регрессии (определения соотношения компонентов покрытия).
Оптимальные значения параметров Learning rate=0,04 и Momentum=0,3 определены таким же образом.
9 Анализ возможностей нейронной сети при работе с произвольными данными
Для проверки возможностей работы сети с произвольными данными представим входные данные двух экспериментов (табл. 2) и сравним выданные результаты с истинными.
Таблица 2. Данные экспериментов для проверки возможностей сети
№ эксп. | N2, % | L, мм | N/Ti |
1 | 15 | 100 | 0,96 |
2 | 15 | 120 | 1,05 |
Результаты расчёта сети представлены на рис. 18.
Рисунок 18 – Проверка работы сети с произвольными данными
Таким образом, отклонение по первому эксперименту составило 0,972279-0,96=0,012279; по второму 1,05-0,9927257=0,0572743. В первом случае ошибка составила 1,2 %, во втором – 5,4 %. Т. е. созданная сеть пригодна для работы с произвольными данными из-за малости полученных отклонений.
10 Анализ полученных результатов
Используемый для решения задачи регрессии метод нейросетевого моделирования позволяет предсказывать результаты экспериментов по нанесению покрытий из нитрида титана, а именно, угадывать соотношение атомов азота и титана в покрытии с погрешностью менее 10 %. Однако данный метод требует большого количества наблюдений (100 - 200) для более точного предсказывания результатов. Это является одним из главных препятствий для использования нейронных сетей не только при решении представленной задачи, но и в целом в электронной технике.
Созданная нейронная сеть (MLP 2-3-2-1), обученная на основе 54 наблюдений, оптимизирована и имеет хорошие показатели качества (S.D. Ratio=0,03; Abs E. Mean 0,022). При проверке возможности работы с неизвестными ей входными параметрами определено незначительное отклонение от истинных значений, что свидетельствует об эффективности использования сети в целях экстраполяции результатов экспериментов. Т. е. в дальнейшем возможно не проводить реальные эксперименты, а лишь по количеству азота и расстоянию между образцом и катодом предсказывать процентный состав покрытия TiN.
Для решения поставленной задачи было создано три сети: две из них типа MLP c отличными архитектурами, одна – линейная. Показатели качества обученных сетей представлены в табл. 3.
Тип сети | S.D. Ratio | Abs E. Mean |
MLP 2-2-1-2 | 0,1463 | 0,019 |
MLP 2-3-2-1 | 0,0300 | 0,022 |
Линейная | 0,2043 | 0,030 |
Из таблицы видно, что для решения поставленной задачи пригодны все рассмотренные типы сетей, однако наиболее точные результаты даст сеть с наименьшими значениями отклонений и ошибок обучения, т. е. MLP 2-3-2-1.