Методические указания к лабораторной работе №3 (774830), страница 2
Текст из файла (страница 2)
Таким образом, файл с обучающей выборкой будет иметь вид:
! 2000 (plus.nni)
! "+"
i 0 0 1 0 0 0 0 1 0 0 1 1 1 1 1 0 0 1 0 0 0 0 1 0 0
d 0 0 1 0 0 0 0 1 0 0 1 1 1 1 1 0 0 1 0 0 0 0 1 0 0
! "-"
i 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0
d 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0
! "*"
i 1 0 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1 0 1 0 1 0 0 0 1
d 1 0 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1 0 1 0 1 0 0 0 1
! "/"
i 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0
d 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0
2. Разработка нейронной сети для моделирования задачи распознавания образов и проверка ее функционирования.
Сеть встречного распространения имеет следующие параметры:
| Network Type | Hetero-Assoc. |
| Control Strategy | Cntrprp |
| Learning/Recall Schedule | CtrpWH |
Чтобы построить сеть встречного распространения для распознавания четырех изображений, необходимо создать сеть, содержащую 25 нейронов во входном слое, 4 нейрона – в скрытом слое и 25 нейронов – в выходном слое. Для этого можно воспользоваться меню Instanet (Cntrprp – сеть встречного распространения). После этого создается сеть, содержащая 4 слоя нейронов – нормализующий слой, состоящий из 26 нейронов, создается автоматически. Ниже приведены характеристики созданных слоев.
-
Входной слой (INPUT EDGE LAYER) содержит 25 нейронов.
| Summation Function | Sum | |
| Transfer Function | Linear | |
| Scaling: | Scale | 1.0 |
| Offset | 0.0 | |
| Limits: | Low Limit | -1 |
| Hight Limit | +1. | |
| Output Function | Direct | |
| Learning Rule | None | |
-
Второй (или нормализующий) состоит из 26 нейронов (на 1 нейрон больше, чем во входном слое).
| Summation Function | NormalScale | |
| Transfer Function | Linear | |
| Scaling: | Scale | 25 |
| Offset | 0.0 | |
| Limits: | Low Limit | -9999. |
| Hight Limit | +9999. | |
| Output Function | Direct | |
| Learning Rule | None | |
-
Третий слой (или слой Кохонена) содержит 4 нейрона (по числу образов, которые должна распознавать сеть).
| Summation Function | Sum | ||
| Transfer Function | Linear | ||
| Scaling: | Scale | 1.0 | |
| Offset | 0.0 | ||
| Limits: | Low Limit | -9999. | |
| Hight Limit | +9999. | ||
| Output Function | One Highest | ||
| Learning Rule | KohonenN | ||
| Leaning/Recall Schedule | Ctrpkoh | ||
-
Выходной слой, состоящий из 25 нейронов, имеет следующие параметры:
| Summation Function | Sum | |
| Transfer Function | Linear | |
| Scaling: | Scale | 1.0 |
| Offset | 0.0 | |
| Limits: | Low Limit | -9999. |
| Hight Limit | +9999. | |
| Output Function | Direct | |
| Learning Rule | Widrow-Hoff | |
В соответствии с технологией создания модели нейронной сети, описанной в «Лабораторной работе №2» построим сеть встречного распространения и обучим ее. Сеть встречного распространения изображена на рис.3. На рис. 4-7 приведены результаты проверки функционирования сети на неполных образах.
Р
ис. 3. Сеть встречного распространения.
Р
ис.4. Сеть встречного распространения. Неполный образ “+”
Р
ис.5. Сеть встречного распространения. Неполный образ “-“
Рис. 6. Сеть встречного распространения. Неполный образ “Х”
Р
ис.7. Сеть встречного распространения. Неполный образ “/”
Порядок выполнения работы
-
Создать нейронную сеть встречного распространения для распознавания четырех символов размерностью 5х5.
-
Сформировать обучающее множество и обучить сеть.
-
Создать инструменты для входного и выходного слоев с целью визуального наблюдения за функционированием сети.
-
Проверить функционирование на всех наборах данных.
-
Создать инструменты для визуального контроля за процессом обучения сети:
-
изменения среднеквадратичной ошибки в выходном слое,
-
средних значений входов и средних значений весов слоя Кохонена (графики совместить),
-
средних значений желаемых выходов и средних значений весов слоя Гроссберга (графики совместить),
-
изменения выходных сигналов нейронов слоя Кохонена.
-
Проверить работоспособность сети на неполных и неверных входных образах.
Требования к отчету
Отчет должен содержать:
-
структурную схему сети встречного распространения для решения поставленной задачи,
-
структурную схему алгоритма обучения сети встречного распространения,
-
анализ результатов обучения сети с использованием инструментов,
-
результаты проверки функционирования сети с использованием инструментов на неполных или искаженных входных образах.
-
сравнительный анализ сетей встречного и обратного распространения, используемых для решения одной и той же задачи распознавания образов.
Варианты заданий
| № варианта | Распознаваемые объекты | |||
| 1 | А | Б | В | Г |
| 2 | Д | Е | Ж | З |
| 3 | И | Й | К | Л |
| 4 | М | Н | О | П |
| 5 | Р | С | Т | У |
| 6 | Ф | Х | Ц | Ч |
| 7 | Ш | Э | Ю | Я |
| 8 | A | B | C | D |
| 9 | E | F | G | H |
| 10 | I | J | K | L |
| 11 | M | N | O | P |
| 12 | Q | R | S | T |
| 13 | U | V | W | Х |
| 14 | Y | Z | | | & |
| 15 | ! | ? | ; | , |
| 16 | < | > | / | \ |
| 17 | { | } | [ | ] |
| 18 | $ | @ | ~ | # |
7
















