rpd000007691 (1006648), страница 3
Текст из файла (страница 3)
Описание: Архитектура персептрона, однонейронный вариант, персептрон общего вида. Обучающее правило персептрона. Процедура обучения персептрона. Ограничения персептронной модели
1.1.5. Постулат Хебба.(АЗ: 2, СРС: 1)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Правило обучения Хебба. Линейный ассоциатор, обучение его с помощью правила Хебба. Свойства хеббовского обучения.
Линейный ассоциатор. Псевдоинверсное правило обучения. Автоассоциативная память. Сравнение линейного ассоциатора и автоассоциатора, их обучения с помощью хеббовского правила.
Варианты правила Хебба: вариант с изменяемой скоростью обучения; вариант с забыванием; вариант, учитывающий фактический выход сети; варианты для обучения без учителя
1.1.6. Правило Уидроу-Хоффа(АЗ: 2, СРС: 1)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Сеть ADALINE, ее общая структура. Сравнение ADALINE и персептрона. Сравнение ADALINE и адаптивного линейного сумматора. Алгоритм работы ADALINE. Простейшая линейная сеть. Сеть ADALINE в варианте Уидроу. Сеть MADALINE.
Обучающий алгоритм LMS. Применение алгоритма LMS для сети ADALINE. Работа алгоритма LMS. Матричная форма алгоритма LMS.
Правило Уидроу-Хоффа и задача адаптивной фиильтрации. Адаптивное шумоподавление. Адаптивный экстраполятор
1.1.7. Многослойные сети прямого распространения.(АЗ: 2, СРС: 1)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Линейные многослойные сети, ограниченность этой модели. Нелинейный нейрон. Активационные функции, их виды, роль в сети. Однослойная и многослойная нелинейные сети.
Многослойные сети прямого распространения в задачах классификации. Проблема разделимости классов, линейная и нелинейная разделимость. Задача «Исключающее ИЛИ» и ее решение с помощью двухслойной нелинейной сети.
Многослойные сети прямого распространения в задачах аппроксимации функций. Приближенное представление зависимостей. Обучающий набор и его формирование. Взаимодействие обучающего набора и обучаемой сети в процессе обучения. Аппроксимация нейросетевой моделью отображения общего вида
1.1.8. Информационные процессы в нейронах и нейронных сетях(АЗ: 2, СРС: 1)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Биологический нейрон, искусственный нейрон.Преобразование информации в нейронах, нейронных сетях. Информация как философская категория
1.1.9. Программное обеспечение для работы с искуственными нейронными сетями(АЗ: 2, СРС: 2)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Функциональные возможности компьютерных программ для моделирования работы нейронных сетей.. Нейропакеты типа НейроПро, Brain Maker. Пакеты MathLab, Simulink. Возможности Интернет для моделирования.
1.1.10. Извлечение знаний с помощью нейронных сетей(АЗ: 2, СРС: 2)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Искусственный интеллект, экспертные системаы и нейронные сети. Извлечение правил из нейронных сетей. Обучение нейронных сетей с одновременным исправлением данных.
1.1.11. Модели теории адаптивного резонанса(АЗ: 2, СРС: 2)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Основы адаптивной резонансной теории. Архитектура и функционирование нейронной сети ART-1. Свойства сетей ART 2, 3.
1.1.12. Нечеткие сети Такаги-Сугено-Канга(АЗ: 2, СРС: 2)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Понятие нечетких систем. Элементы нечеткой логики. Принятие решений в условиях неопределенности. Архитектура и функционирование сети ТСК.
1.1.13. Построение современной нейросетевой технологии(АЗ: 2, СРС: 2)
Тип лекции: Информационная лекция
Форма организации: Лекция, мастер-класс
Описание: Формиализация нейросети. Модель механизма запоминания. Применение типовых нейросетей. Нейропрограммирование. Нейросетевые технологии и нейрокомпьютеры.
-
Практические занятия
1.1.1. Обучение многослойных сетей прямого распространения.(АЗ: 4, СРС: 4)
Форма организации: Практическое занятие
Описание: Общая схема процесса обучения нейросети. Алгоритм обратного распространения ошибки — общая схема. Частный случай однослойной сети, ошибка сети и дельта-правило.
Алгоритм обратного распространения ошибки — общая схема. Цепное правило дифференцирования и его роль в алгоритме обратного распространения ошибки. Сопоставление алгоритма наискорейшего спуска и алгоритма LMS для минимизации ошибки сети.
Алгоритм обратного распространения ошибки — вывод выражений для корректировки синаптических весов выходного и скрытых слоев сети. Алгоритм обратного распространения ошибки как обобщение алгоритма LMS.
Алгоритм обратного распространения ошибки — графическая форма вывода выражений для корректировки синаптических весов выходного и скрытых слоев сети
1.1.2. Применение сетей прямого распространения.(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Аппроксимация функции сетью. Варьирование параметров сети и его влияние на получаемый выход сети. Выбор архитектуры сети: число слоев, число элементов в скрытых слоях. Сходимость процесса обучения сети и влияние на нее архитектуры сети.
Обобщающие свойства сетей. Влияние архитектуры сети на ее обобщающие свойства. Проблемы, возникающие при обучении сетей: недообученность и переобученность сетей. Критическое число эпох процесса обучения.
Недостатки алгоритма обратного распространения ошибки, основанного на оптимизационной схеме наискорейшего спуска. Возможные пути устранения этих недостатков
1.1.3. Альтернативные варианты алгоритма обратного распространения ошибки, основанные на оптимизационных схемах, отличных от наискорейшего спуска(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Альтернативные варианты алгоритма обратного распространения ошибки, основанные на оптимизационных схемах, отличных от наискорейшего спуска: метод сопряженных градиентов, метод Ньютона.
Квазиньютоновские алгоритмы — метод Гаусса-Ньютона, метод Левенберга-Марквардта. Модификация стандартного алгоритма обратного распространения ошибки применительно к использованию квазиньютоновских оптимизационных схем
1.1.4. Глобальная и локальная рецептивность сетей.(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Класс локально-рецептивных сетей. Метод потенциальных функций, задачи классификации и аппроксимации функций. Функции с радиальным базисом (RBF-функции), RBF-нейрон, RBF-сеть. Сопоставление свойств RBF-функций и сигмойдальных функций
1.1.5. Метрические классификаторы(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Метод ближайших соседей, метод потенциальных
функций, метод радиальных базисных функций
1.1.6. Сети радиальных базисных функций (RBF-сети).(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Варианты стратегий обучения: случайный выбор фиксированных центров, выбор центров на основе самоорганизации, выбор центров с учителем. Вероятностная нейронная сеть (PNN-сеть) и общерегрессионная сеть (GRNN-сеть), их соотношение с RBF-сетью
1.1.7. Нейросети и составное представление функций. (АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Соотношение НС-представлений и моделей традиционной вычислительной математики. Сходства и различия нейросетевых и традиционных моделей.
Пределы возможностей нейросетевого подхода. Составное представление функций — точный и приближенный варианты. Теорема Колмогорова. Теоремы Веиерштрасса и Вейерштрасса-Стоуна-Горбаня
1.1.8. Нейросетевые модели с обратными связями. (АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Рекуррентные сети их особенности, достоинства и недостатки, сопоставление их с сетями прямого распространения.
Понятие устойчивости динамической системы, аттракторы, области притяжения.
Сети Хопфилда: общая структура, принципы работы, свойства. Матрица связей сети Хопфилда. Функция энергии сети, ее роль в процессе функционирования сети. Сеть Хопфилда как ассоциативная память. Синхронная и асинхронная динамика сети. Обучение сети Хопфилда. Разобучение сети Хопфилда.
Модель NARX. Алгоритм работы NARX. Последовательная и последовательно-параллельная схема обучения сети NARX. Сеть NARX в задачах моделирования и управления.
Динамические сети классов LDDN, FTDNN и DTDNN и их соотношение с моделью NARX
1.1.9. Нейросетевые модели с соревновательным обучением.(АЗ: 2, СРС: 2)
Форма организации: Практическое занятие
Описание: Мера сходства объектов, кластеризация объектов. Понятие соревновательного (конкурентного) обучения, подходы к его реализации. Сеть Хемминга, ее структура, принципы работы.
Самоорганизующаяся карта Кохонена (SOM), ее структура, принципы работы. Области соседства в решетке нейронов сети. Латеральные связи в слое нейронов SOM. Одномерные, двумерные и трехмерные карты.
Обучающееся векторное квантование (LVQ). Понятие векторного квантования, кодирующие векторы, мозаика Вороного, опорные векторы
-
Лабораторные работы
1.1.1. Линейная нейронная сеть. Правило обучения Уидроу-Хоффа (АЗ: 4, СРС: 4)
Форма организации: Лабораторная работа
Описание: Цель работы: Исследовать свойства линейной нейронной сети и алгоритмов ее обучения, изучить применение сети в задачах классификации, аппроксимации и фильтрации.
Содержание работы:
1. Использовать линейную нейронную сеть для классификации точек по двум классам. Значения весовых коэффициентов и смещений нейронной сети, рассчитанные по методу наименьших квадратов, сравнить со значениями, полученными при обучении по правилу Уидроу-Хоффа. Отобразить изменение среднеквадратичной ошибки сети при обучении и результаты распознавания.
2. Использовать линейную нейронную сеть с задержками для аппроксимации функции. Произвести адаптацию сети и отобразить ошибку обучения.
3. Использовать линейную нейронную сеть с задержками в качестве адаптивного фильтра для подавления помех. Отобразить ошибку обучения.
1.1.2. Многослойные сети. Алгоритм обратного распространения ошибки(АЗ: 4, СРС: 4)
Форма организации: Лабораторная работа
Описание: Цель работы: Исследовать свойства многослойной нейронной сети прямого распространения и алгоритмов ее обучения, изучить применение данной сети в задачах классификации и аппроксимации функции.
Содержание работы:
1. Использовать многослойную нейронную сеть для классификации точек в случае, когда классы не являются линейно разделимыми. Проверить качество обучения.
2. Использовать многослойную нейронную сеть для аппроксимации функции. Произвести обучение с помощью одного из методов первого порядка. Отобразить ошибку обучения.
3. Использовать многослойную нейронную сеть для аппроксимации функции. Произвести обучение с помощью одного из методов второго порядка. Отобразить ошибку обучения.
1.1.3. Динамические сети (АЗ: 4, СРС: 4)
Форма организации: Лабораторная работа
Описание: Цель работы: Исследовать свойства различных динамических нейронных сетей, алгоритмов их обучения, а также применение таких сетей в задачах прогнозирования значений и аппроксимации функции, а также в задачах идентификации динамических систем.
Содержание работы:
1. Использовать сеть прямого распространения с запаздыванием для предсказания значений функции. Отобразить ошибку обучения и проверить качество прогнозирования.
2. Использовать сеть прямого распространения с распределенным запаздыванием для распознавания динамических образов. Отобразить ошибку обучения и проверить качество распознавания.
3. Использовать нелинейную авторегрессионную сеть (NARX) для идентификации нелинейной динамической системы. Отобразить ошибку и проверить качество обучения















