Хороший пример домашнего задания (Пример домашнего задания)
Описание файла
Документ из архива "Пример домашнего задания", который расположен в категории "". Всё это находится в предмете "нейросетевое моделирование сложных технических систем" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "курсовые/домашние работы", в предмете "нейросетевое моделирование сложных технических систем" в общих файлах.
Онлайн просмотр документа "Хороший пример домашнего задания"
Текст из документа "Хороший пример домашнего задания"
М
осковский Государственный Технический Университет им. Н.Э.Баумана
Домашнее задание №1 по курсу
«Методы математической физики. Часть1»
Вариант 20
Выполнил: | Юрченко П.И. Группа МТ 11-111 |
Проверил: | Булыгина Е.В. |
Москва
-
г.
Оглавление
1. Описание системы 3
2. Анализ входных и выходных параметров техпроцесса 4
3. Подготовка данных 5
4. Выбор типа и архитектуры нейросети 7
4.1. Многослойный персептрон 7
4.1.1. Трехслойный персептрон: 3 скрытых слоя по два нейрона в каждом (3: 2-2-2) 7
4.1. 2. Трехслойный персептрон: 3 скрытых слоя по 10 нейронов в каждом (3: 10-10-10) 8
4.2. Радиально базисная функция с 10-ю нейронами в радиальном слое 11
Вывод 13
Список использованной литературы 14
-
Описание системы
Для современной науки (разделы электроники: микро - и наноэлектроника) и техники большой интерес представляют островковые пленки, то есть пленки, формирование которых завершили на этапе образования островков.
Островковые структуры с заданной геометрией получают методом термического испарения, имеющим среднюю воспроизводимость (70%-80%). Метод термического испарения в вакууме заключается в следующем (рис.1). При пропускании тока через контакты испаритель разогревается и передаёт своё тепло материалу будущей плёнки, в камере создают вакуум, при этом материал будущей плёнки разогревается и начинает испаряться. До тех пор, пока давление паров испаряемого материала меньше давления вакуума, подложка закрыта заслонкой. Расстояние от подложки до испарителя выбирают так, чтобы длина свободного пробега испаряемых атомов была на порядок выше, чем расстояние от подложки до испарителя. Для того чтобы улучшить адгезию, подложка разогревается нагревательным элементом. Как только давление паров испаряемого материала превысит давление вакуума, заслонку отодвигают, и на поверхности подложки происходит интенсивное осаждение плёнки. Применение электронной микроскопии позволило установить, что при конденсации паров сначала образуются капли жидкой конденсированной фазы, которые на некоторой стадии роста кристаллизуются, образуя отдельные изолированные частицы (зародыши), имеющие в большинстве случаев сферическую форму. Затем, в процессе дальнейшей конденсации паров происходит рост зародышей, их слияние и образование сплошного слоя.
На вакуумной установке, реализующей метод термического испарения, должны быть отработаны режимы формирования островковых
наноструктур.
Рис.1: Схема процесса создания островковых наноструктур:
1 – Подложкодержатель
2 – Подложка с контактными площадками
3 – Испаряемый материал
4 – Проволочный нагреватель
5 - Заслонка
Подложка с предварительно сформированными на ней контактными площадками помещается в рабочую камеру. Питание на нагреватель подается с помощью латтера через токовводы фланца. На контактные площадки устанавливаются измерительные пластины, которые с помощью проводов связаны с токовводом. В процессе напыления необходимого материала на подложку, снимается изменение силы тока образующейся плёнки. Последующий анализ амперной характеристики, к примеру с помощью АСМ, даёт возможность создавать наностровки с заданной геометрией.
2. Анализ входных и выходных параметров техпроцесса
Исходя из приведённого описания схемы эксперимента, можно выделить основные параметры техпроцесса:
-
Входными управляемыми и контролируемыми параметрами процесса являются:
-
Сила тока на подложке
-
Рабочий вакуум
-
Расстояние от испарителя до подложки
-
Входными неуправляемыми, но контролируемыми параметрами процесса являются:
-
Температура подложки
-
Чистота подложки
-
Шероховатость подложки
-
Материал подложки
-
Материал испаряемого вещества
-
конфигурация системы «источник-подложка» (геометрия системы)
-
Направление потока испаряемого вещества
3. Входными неуправляемыми неконтролируемыми параметрами процесса являются:
-
погрешности измерительных приборов (видим одно, на деле – другое);
-
погрешности «расчетной» геометрии системы «источник-подложка»;
-
погрешность, проявляющаяся в отклонении потока испаряемого вещества от выбранного направления
-
прочие случайные факторы
4. Выходные параметры:
-
Размер островка (планарный)
-
Расстояние между островками
Схема, отображающая зависимость выходных параметров качества от входных контролируемых и управляемых факторов
Рис.2: Зависимость выходных параметров качества от входных контролируемых и управляемых факторов
3. Подготовка данных
Проанализировав техпроцесс, его механизм и результат (на практике в лаборатории), выделяем следующие основные входные и выходные параметры процесса:
Входные:
-
Сила тока на подложке
-
Рабочий вакуум
-
Расстояние от испарителя до подложки
Выходные:
-
Размер островка (планарный)
Данные были взяты из ранее проведенного эксперимента. Количество наблюдений: 20. Для преобразования переменных (шкалирования) в указанной программе используется в указанной программе метод «минимакса». Т.е функция «минимакса» находит минимальное и максимальное значение по обучающей выборке и выполняет линейное преобразование.
В программе STATISTICA Neural Networks все наблюдения из файла данных делятся на четыре группы:
-
обучающие
-
контрольные
-
тестовые
-
неучитываемые
Обучающее множество служит для обучения нейронной сети, контрольные – для независимой оценки хода обучения, тестовые – для окончательной оценки после завершения серии экспериментов. Неучитываемое множество не используется.
Разбиение произведем следующим образом:
-
обучающие – с 1 по 20
-
контрольные – нет (стандартная процедура обучения)
-
тестовые – с 21 по 24
-
неучитываемые (пробные) - нет
В данном случае, в виду малого количества данных, будем использовать стандартную процедуру обучения, которая после выбранного числа эпох обучения, проверяет нейронную сеть на тестовом множестве.
1. Таблица исходных данных.
Номер | Length, мм | Pressure, Па | Current, нА | D_Island, нм |
1 | 30 | 0,014 | 25 | 30 |
2 | 40 | 0,077 | 25 | 20 |
3 | 30 | 0,0038 | 25 | 25 |
4 | 40 | 0,0081 | 25 | 20 |
5 | 30 | 0,045 | 250 | 200 |
6 | 40 | 0,016 | 250 | 180 |
7 | 30 | 0,0019 | 250 | 190 |
8 | 40 | 0,0055 | 250 | 160 |
9 | 30 | 0,076 | 2500 | 470 |
10 | 40 | 0,023 | 2500 | 420 |
11 | 30 | 0,0048 | 2500 | 310 |
12 | 40 | 0,0098 | 2500 | 300 |
13 | 30 | 0,01 | 1500 | 360 |
14 | 40 | 0,01 | 1500 | 330 |
15 | 30 | 0,0088 | 1500 | 270 |
16 | 40 | 0,0091 | 1500 | 250 |
17 | 30 | 0,011 | 50 | 100 |
18 | 40 | 0,021 | 50 | 80 |
19 | 30 | 0,001 | 50 | 90 |
20 | 40 | 0,001 | 50 | 60 |
21 | 30 | 0,003 | 700 | 270 |
22 | 40 | 0,026 | 700 | 230 |
23 | 30 | 0,001 | 700 | 240 |
24 | 40 | 0,001 | 700 | 210 |
4. Выбор типа и архитектуры нейросети
4.1. Многослойный персептрон
Сеть способная решать задачи регрессии и способна к экстраполяции – многослойный персептрон. Как было упомянуто выше, при отсутствии необходимости экстраполяции сетью, т.е. при предсказывании выходных параметров при режимах (входных параметрах), лежащих в том диапазоне значений, который имеется в используемой статистике. Однако, если встает необходимость предсказания выходного параметра при режимах, лежащих вне диапазона обучающего множества, сеть типа многослойный персептрон поможет в решении поставленной задачи.
Таким образом, алгоритм действует итеративно, и его шаги принято называть эпохами. На каждой эпохе на вход сети поочередно подаются все обучающие наблюдения, выходные значения сети сравниваются с целевыми значениями и вычисляется ошибка. Значение ошибки, а также градиента поверхности ошибок используется для корректировки весов, после чего все действия повторяются. Начальная конфигурация сети выбирается случайным образом, и процесс обучения прекращается либо когда пройдено определенное количество эпох, либо когда ошибка достигнет некоторого определенного уровня малости, либо когда ошибка перестанет уменьшаться