Отчёт к первой лабе
Описание файла
PDF-файл из архива "Отчёт к первой лабе", который расположен в категории "". Всё это находится в предмете "нейрокомпьютерные сети" из 10 семестр (2 семестр магистратуры), которые можно найти в файловом архиве МАИ. Не смотря на прямую связь этого архива с МАИ, его также можно найти и в других разделах. Архив можно найти в разделе "лабораторные работы", в предмете "нейрокомпьютерные сети" в общих файлах.
Просмотр PDF-файла онлайн
Текст из PDF
Ф ЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮМ ОСКОВСКИЙ АВИАЦИОННЫЙ ИНСТИТУТ(государственный технический университет)Кафедра 304(вычислительные машины, системы и сети)Лабораторная работа по курсу«Нейрокомпьютерные сети»Отчёт по работе№1 .Моделирование и исследование сетей(наименование работы)обратного распространенияВариант задания№4 .Лабораторную работу выполнил:студент гр. 13-501, Резвяков Денис Михайлович(должность).(Ф.
И. О.)(подпись)Лабораторную работу принял:доц. каф.304, к.т.н. Чебатко Марина Игоревна(должность).(Ф. И. О.)«(подпись)»марта(дата приёма)2010 г.Цель работы: Освоить на практике работу с нейронной сетьюобратного распространения. Проанализировать обучаемость иработу сети; сделать выводы.Структурная схема сети обратного распространенияДвухслойная сеть обратного распространенияАлгоритм обратного распространения ошибки является одним изметодов обучения многослойных нейронных сетей прямогораспространения, называемых также многослойными персептронами. Многослойные персептроны успешно применяются длярешения многих сложных задач.Обучение алгоритмом обратного распространения ошибки предполагает два прохода по всем слоям сети: прямого и обратного.При прямом проходе входной вектор подается на входной слойнейронной сети, после чего распространятся по сети от слоя кслою.
В результате генерируется набор выходных сигналов,который и является фактической реакцией сети на данный–2–входной образ. Во время прямого прохода все синоптическиевеса сети фиксированы. Во время обратного прохода все синоптические веса настраиваются в соответствии с правилом коррекции ошибок, а именно: фактический выход сети вычитаетсяиз желаемого, в результате чего формируется сигнал ошибки.Этот сигнал впоследствии распространяется по сети в направлении, обратном направлению синоптических связей.
Отсюда иназвание — алгоритм обратного распространения ошибки.Синоптические веса настраиваются с целью максимальногоприближения выходного сигнала сети к желаемому.http://www.aiportal.ru/articles/neural-networks/back-propagation.htmlСтруктурная схема алгоритма обучения сетиметодом обратного распространения ошибкиСловесный алгоритм:1. Инициализировать синоптические веса маленькими случайнымизначениями.2. Выбрать очередную обучающуюпару из обучающего множества;подать входной вектор на вход сети.3. Вычислить выход сети.4. Вычислить разность между выходом сетии требуемым выходом (целевым векторомобучающей пары).5.
Подкорректировать веса сети для минимизации ошибки.Шаги с 2 по 5 повторяются для каждого вектора обучающего–3–множества до тех пор, пока ошибка на всем множестве недостигнет приемлемого уровня.Структурная схема:–4–Постановка задачи моделированияСоздать нейронную сеть, реализующую функции распознаванияграфических изображений с применением модели сети обратного распространения. Изображения представим в виде двоичныхвекторов, закодированных следующим образом:корабликмашинкасмайл "улыбаюсь"смайл "недоволен"Составление входного файлаНа основании этих таблиц получаем входные последовательности — четыре двоичных вектора:0000010111000101000000001111100001110000010010001000000001001110110111011101111000011110101011100001Выходные последовательности будут такими же, как и входные.Таким образом, файл с обучающей выборкой будет иметь вид:!!id!id!id!id2010 dinya.nniкораблик0 0 1 0 0 0 1 10 0 1 0 0 0 1 1машинка0 1 1 1 0 0 1 00 1 1 1 0 0 1 0смайл :)0 0 0 0 0 0 1 00 0 0 0 0 0 1 0смайл =(0 1 0 1 0 0 1 00 1 0 1 0 0 1 00 0 0 1 1 0 0 1 1 1 1 1 0 1 1 1 00 0 0 1 1 0 0 1 1 1 1 1 0 1 1 1 01 0 1 0 0 0 1 1 1 1 1 1 0 1 0 1 01 0 1 0 0 0 1 1 1 1 1 1 0 1 0 1 01 0 0 0 0 0 0 1 0 0 0 1 0 1 1 1 01 0 0 0 0 0 0 1 0 0 0 1 0 1 1 1 01 0 0 0 0 0 0 0 1 1 1 0 1 0 0 0 11 0 0 0 0 0 0 0 1 1 1 0 1 0 0 0 1–5–Прооверка работыробученнной сеттиСеть послепоббучения распозннала всее образыы правилльно,следдователльно, и обучиласось тоже правилььно.Граафики среднексквадраттичной ошибкии и весоовГрафиик средннеквадрратичнойй ошибкки в выхходном слоесдляяперрвых 4500 циклов обученния:–6–Графиик средннеквадрратичногго значеения вессовых кооэффициеентов длля первыых 450 цикловцобученияоя:Обучеение сети до досстижениия заданнной срееднекваадратич-нойй ошибкки:среднеквадраттичная ошибкаСК ошшибка 0,,01_ досстигнутаа за _1000 цикловв обученния;СК ошшибка 0,,005 досстигнутаа за _2200 циклов обученния;СК ошшибка 0,,001 досстигнутаа за 3920 циклоов обучения.Проверрка работоспоссобностти на исскажённных оббразаходна ошибкадве ошибкитри ошибки–7–четыре ошиббкиОбученная сеть хорошо справилась с одной, двумя ичетырьмя ошибками, но плохо — с тремя ошибками во входномобразе.
Третий результат напоминает три первых образа, однакоесли округлить все полученные значения до целых, то получитсявсё же правильный ответ.Такая реакция на ошибки во входных образах говорито том, что искажение разных точек по-разному влияет нарезультат срабатывания сети.
Например, есть точки, которые вовсех четырёх исходных образах одинаковые, а, следовательно,могут быть исправлены однозначно и не влияют на результат.–8–.