Хороший пример домашнего задания (778908), страница 2
Текст из файла (страница 2)
Для обучения сети будем использовать алгоритм обратного распространения. Смоделируем нейронные сети при двух значениях числа эпох обучения: 100 и 10000. При обучении многослойного персептрона выберем квадратичную функции ошибок.
.
4.1.1. Трехслойный персептрон: 3 скрытых слоя по два нейрона в каждом (3: 2-2-2)
Рис.3:МLP 3: 2-2-2
Далее приведены графики изменения ошибки для данной сети после 100 и 10000 эпох обучения. По проверке статистики регрессии имеем возможность в полной мере судить о работе сети.
| Многослойный персептрон (3:2-2-2; 100 эпох) | Многослойный персептрон (3:2-2-2; 10000 эпох) |
| | |
| Оценка качества сети (3:2-2-2; 100 эпох) | Оценка качества сети (3:2-2-2; 10000 эпох) |
Рис.4: Результаты построения MLP 3:2-2-2
Таким образом, видно, что в случае увеличения эпох обучения абсолютное значение ошибки и стандартное отклонение ошибок уменьшаются, а следовательно сеть точнее. Соотношение Error S.D./Data S.D. < меньше единицы для обучающего и тестового множества, что говорит о достаточно корректном предсказывании выходного параметра, т.е. о хорошей работе сети.
4.1. 2. Трехслойный персептрон: 3 скрытых слоя по 10 нейронов в каждом (3: 10-10-10)
Далее приведены графики изменения ошибки для данной сети после 100 и 10000 эпох обучения. По проверке статистики регрессии имеем возможность в полной мере судить о работе сети.
| Многослойный персептрон (3:10-10-10; 100 эпох) | Многослойный персептрон (3: 10-10-10; 10000 эпох) |
| | |
| Оценка качества сети (3: 10-10-10; 100 эпох) | Оценка качества сети (3: 10-10-10; 10000 эпох) |
Рис.6: Результаты построения MLP 3:10-10-10
Таким образом, видно, что в случае увеличения эпох обучения абсолютное значение ошибки и стандартное отклонение ошибок уменьшаются, а следовательно сеть точнее. Соотношение Error S.D./Data S.D. < меньше единицы для обучающего и тестового множества, что говорит о достаточно корректном предсказывании выходного параметра, т.е. о хорошей работе сети.
Обобщая полученные результаты для МЛП, приведём поверхности отклика при 10000 эпох для 3: 2-2-2; 3:10-10-10 и проанализируем полученные результаты.
| Многослойный персептрон (3:2-2-2; 10000 эпох) | Многослойный персептрон (3: 10-10-10; 10000 эпох) |
|
| |
| Характеристика построенных сетей МЛП | |
Рис.7: Анализ MLP 3: 2-2-2 и 3:10-10-10
Ошибка уменьшается в случае увеличения эпох обучения. В случае изменения архитектуры сети, в частности увеличения нейронов в промежуточных слоях (сеть 03, 04) или увеличения их количества (сеть 05), точность сети повышается, однако это отражается на производительности, которая падает. Следует отметить, что минимальная ошибка составила приблизительно 15%, что говорит либо о неправильно выбранном типе сети, либо о недостаточности данных для построения сети (их всего 24). Поэтому для полноты вывода (для последующего сравнения), необходимо смоделировать сеть другого типа.
4.2. Радиально базисная функция с 10-ю нейронами в радиальном слое
Данная сеть имеет ряд преимуществ перед MLP. Во-первых, они моделируют только произвольную нелинейную функцию с помощью одного промежуточного слоя, и тем самым избавляют нас от необходимости решать вопрос о числе слоев. Во-вторых, параметры линейной комбинации в выходном слое можно полностью оптимизировать с помощью хорошо известных методов линейного моделирования. Поэтому сеть RBF обучается очень быстро. Однако необходимо определить число радиальных элементов, положение их центров и величины отклонений
Так как число радиальных элементов небольшое, то для выбора центров используем алгоритм «K-средних». В качестве метода выбора отклонений выбираем метод «К ближайших соседей.
П
осле того, как выбраны центры и отклонения, параметры выходного слоя оптимизируем с помощью стандартного метода линейной оптимизации – алгоритма псевдообратных матриц.
Рис.8: RBF, 10 нейронов в радиальном слое
Построив сеть, получаем следующие данные:
|
| |
| Оценка качества сети RBF (10 нейронов в радиальном слое) | Поверхность отклика RBF (10 нейронов в радиальном слое) |
|
| |
| Характеристика построенных сетей MLP и RBF | |
Рис.9: Анализ RBF, 10 нейронов в радиальном слое
Ошибка сети RBF составляет около 31%, что даёт значительное расхождение с реальными данными. К тому же, соотношение Error S.D./Data S.D. >1 для обучающего и тестового множества, что говорит о недостаточно корректном предсказывании выходного параметра, т.е. о некорректной работе сети. Возможно, необходимо изменить количество нейронов в сети или перегруппировать обучающее, тестовое и контрольное множества.
Вывод
Результаты исследований показали, что для решения задачи – моделирование технологического процесса, описанного в пункте 1, нейросетевое моделирования может быть целесообразно. Но следует обратить внимание на тот факт, что нейросетевое моделирование может давать некорректные результаты в виду нехватки данных или по другим причинам, описанным в пункте 4.2.
Рассмотренные типы сетей имеют свои достоинства и недостатки. Сети типа RBF обладают способностью быстро обучаться и при наличии «подробного» обучающего множества, исключающего необходимость экстраполяции, могут быть успешно применены для решения поставленной задачи (если, конечно, не требуется очень высокая точность).
Сети типа MLP выдали результаты с наименьшими ошибками. Несмотря на универсальность сети MLP, ее способность к экстраполированию отбрасывает единичные данные, что отрицательно сказывается на результате, в случае решения задач, требующих проведение трудоемких экспериментов.
Для хорошего обучения сетей необходимо большое количество опытных данных, что, можно назвать, недостатком.
Список использованной литературы
-
«Нейронные сети», Электронный учебник StatSoft.
-
«Нейрокомпьютинг и его применение в экономике и бизнесе», А.А.Ежов, С.А.Шумский.
14














