neironne_seti_i_neirokompjuter (1085713), страница 30
Текст из файла (страница 30)
Числа в диапазоне от 0 до 10, полученныес использованием генератора случайных чисел Турбо-паскальНомерачиселЧисла, полученные с использованиемфункции Random(10) Турбо-паскаль1 – 10008226313411 – 20040802937321 – 30687313428231 – 40418279488041 – 50115050767751 – 60526596926261 – 70074855963071 – 80797711975881 – 90620628125991 – 1001121542167Исследуемые временные серииОбъектом исследования являются временные серии, полученные спомощью генератора случайных чисел, формирующего равномернораспределенные числовые значения.За основу рекомендуется взять сто элементов (чисел) временной серии,значения которых лежат в диапазоне от 0 до 9 и сто элементов – в диапазонеот 0 до 99.
Данные временные серии следует получить с помощью функциигенерации случайных чисел любого программного продукта дляматематического моделирования (MathCAD, Matlab или др.), средыпрограммирования на языке высокого уровня (Delphi, C Builder или др.) иливзять из табл. 6.5 и 6.6.Выясним, есть ли какая-либо закономерность в появлении элементовданных временных серий и тем самым определим качество генератораслучайных чисел, который по идее должен обладать свойствомнекоррелированности значений числовых последовательностей.164PDF created with pdfFactory trial version www.pdffactory.comТаблица 6.6. Числа в диапазоне от 0 до 100, полученныес использованием генератора случайных чисел Турбо-паскальНомерачиселЧисла, полученные с использованиемфункции Random(100) Турбо-паскаль1 – 1003862027673116374211 – 208477845299136773221 – 306984713016324624822731 – 40481487287797498882241 – 5014145025907765777051 – 605520685995649924672961 – 7087749885057956833071 – 807098777419149178588681 – 90682896228871627549691 – 10017152617574928156073Определение начальной структуры нейронной сетиЧтобысинтезироватьоптимальнуюструктуру,необходимоподготовить и обучить несколько нейронных сетей и проверить качествовыполнения требуемых операций.
Ниже приведем основные этапы синтезатакой структуры (п. 1.5.1).1. В качестве нейронной сети предлагается воспользоваться сетьютипа многослойный персептрон.2. Количество входов соответствует количеству выбираемыхэлементов из временных серий (в нашем случае – N).3. Число нейронов во внутренних (скрытых) слоях и число такихслоев зависит от сложности задачи анализа или прогнозированиявременных серий.4.
Выходной слой нейронной сети следует составить из одногонейрона,значениекоторогобудетсоответствоватьпрогнозируемому элементу временных серий.Обучение нейронной сетиДля обучения нейронной сети подготовим блок обучающих выборокследующим образом.165PDF created with pdfFactory trial version www.pdffactory.comВыберем кадр из N+1 числа элементов, идущих от конца к началувременной серии, где первые N элементов – формируют вектор входногослоя, а последний (N+1)-й – элемент выходного слоя нейронной сети.Следующую обучающую выборку получаем, передвигаясь окном на одинэлемент влево и т.д.Таким образом, имея временную серию, состоящую из 100 элементов,можно подготовить 100–N–1 обучающих пар.Оптимизация структуры нейронной сетиЧтобы оценить качество прогнозирования, получите в соответствии сразделом «Исследуемые временные серии» еще 3 элемента, следующих за100 элементами временной серии, которые уже использовались приобучении.
Далее, запустите нейронную сеть, предъявив ей 3 новыхисследуемых вектора, и сравните результаты нейронной сети с числами,синтезированными генератором.Разницу между значениями, синтезированными генератором, ирезультатами работы нейронной сети используйте как качественныйпоказатель сети. Уменьшите эту разницу, модифицируя структурунейронной сети [5].ЗамечанияПодход, используемый в данной лабораторной работе для проверкикачества генератора случайных чисел, наверное, не самый популярный иэффективный.В то же время, разработанная в лабораторной работе нейронная сетьявляется аналогичной нейронным сетям, применяемым в интеллектуальныхсистемах прогнозирования различного назначения, например системпрогноза знаков изменения биржевых индексов, систем прогноза цены,систем расчета оптимального использования ресурсов и т.п (см.
п.1.5).166PDF created with pdfFactory trial version www.pdffactory.comВОПРОСЫ ДЛЯ САМОПРОВЕРКИ1.2.3.4.Для решения каких задач применяются нейронные сети?Искусственный нейрон и его основные свойства.Виды активационных функций.Какое основное отличие искусственных нейронов, которые используютсядля построения нейронных сетей, получивших название персептронов?5. К какому типу алгоритмов обучения относится алгоритм обратногораспространения, и в чем отличительная черта этих алгоритмов.6. Дайте свое определение «Многослойному персептрону».7. В чем заключается задача классификации?8.
Почему, по Вашему мнению, наиболее распространенной топологиейсети является модель прямого распространения информации?9. Каков смысл параметра a – скорости обучения (или, по-другому,коэффициента корреляции)?10. В чем заключается явление перетренированности сети?11. Что такое обобщение?12. Для решения каких задач применяются самоорганизующиеся картыКохонена?13. Каков смысл параметров, передаваемых функции обучения Кохонена?14. Что означают термины «компонентная карта» и «карта расстояний»?15. Объясните построение бинарной сети Хопфилда. Какими свойствамиобладает ее весовая матрица?16.
Объясните способ функционирования сети Хопфилда. Какие стадииработы она имеет?17. Одно из важнейших свойств сетей Хопфилда состоит в восстановлениикорректных образов. Для каких приложений оно может бытьиспользовано?18. Опишите поведение одного нейрона сети Хопфилда.19. В случае сетей Хопфилда также возникает проблема локальныхминимумов. Поясните различие локальных минимумов в сетях Хопфилдаи сетях, использующих алгоритм обратного распространения ошибок(Backpropagation).20. Какие входные векторы используют ART1-сети?21. Какую работу осуществляют слои сравнения и распознавания ART-сети?22.
В чем заключается основной принцип решения задачи распознаванияобразов?23. В чем разница между нейропроцессорами и нейрокомпьютерами?24. Приведите классификацию нейрокомпьютеров по типу применяемыхпроцессоров и конструктивной реализации.167PDF created with pdfFactory trial version www.pdffactory.comЛИТЕРАТУРА1. Алексеев А.В., Круг П.Г., Петров О.М. Нейросетевые инейрокомпьютерныетехнологии:Методическиеуказаниякпроведению лабораторных работ по курсу «Информационныетехнологии». М.: МГАПИ, 1999 г.2. Галушкин А.И. Некоторые исторические аспекты развития элементной базы вычислительных систем с массовым параллелизмом (80- и90- годы) // Нейрокомпьютер. № 1. 2000. С.
68-82.3. Горбань А., Россиев Д. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. 276 с.4. Кирсанов Э.Ю. Цифровые нейрокомпьютеры: Архитектура и схемотехника / Под ред. А.И.Галушкина. Казань: Казанский Госуниверситет,1995. 131 с.5. Круг П.Г., Филатенков Ю.В., Шилин А.В. Оптимизация структурынейронной сети, применяемой для автоматизированной классификациирезультатов моделирования. IV Всероссийская научн.-техн. конф.«Новые информационные технологии». М.: МГАПИ, 2001. С. 114-118.6.
Минский М., Пейперт С. Персептроны. М.: Мир, 1971.7. Розенблатт Ф. Принципы нейродинамики. Персептроны и теория механизмов мозга. М.: Мир, 1965.8. Уоссермен Ф. Нейрокомпьютерная техника. М.: Мир, 1992.9. Хехт-Нильсен Р. Нейрокомпьютинг: история, состояние, перспективы// Открытые системы. № 4. 1998.10. Шахнов В.А., Власов А.И., Кузнецов А.С., Поляков Ю.А.Нейрокомпьютеры: архитектура и схемотехника. М.: Изд-воМашиностроение, 2000. 64 с.11.
Alekseev A., Krug P., Shahidur R. The Neural Networks. TeachingEdition. Moscow. Publishing House of MPEI. 2000. 64 pp.12. SNNS. User Manual. (http://www.informatik.uni-stutgart.de/ipvr/bv/projekte/snns)13. http://neurnews.iu4.bmstu.ru14. http://neuronets.chat.ru15. http://www.module.ru16. http://www.scanti.ru17. http://www.ti.com18. http://www.trajan-software.demon.co.uk19.
http://www.basegroup.ru/tasks/forecast.htm168PDF created with pdfFactory trial version www.pdffactory.comПРИЛОЖЕНИЯТаблица П.1. Программные продукты моделирования нейронных сетейНазваниеРазработчик/производительПлатформаПоддерживаемые парадигмыи алгоритмы обученияИнтерфейсЦенаКомментарии1234567Win 95,98,NT 4.0Поддерживаемые парадигмы:персептрон, обратное распространение,радиальный базис, сети Эльмана, сетиХопфильда, вероятностнаяи обобщенная регрессия.Неподдерживаемые парадигмы: Хебб,Кохонена, карты свойств,самоорганизующиеся картыGUI дляMs Windows----Matlab NeuralNetwork Toolbox3.0MathWorks,СШАhttp://www.mathworks.comSNNSИнститут параллельныхи распределенных систем(IPVR) при ШтуттгардскомуниверситетеUnixОбратное распространение,радиальный базис, ART1, ART2, картыКохонена, сети Джордана,сети Эльмана, ассоциативная памятьGUI дляX-WindowsWin 3.x,9x, NTМногоуровневый персептрон,Обратное распространение,радиальный базис, карты Кохонена,вероятностная и обобщенная регрессияGUI дляMS Windowshttp://www.informatik.unistutgart.de/ipvr/bv/projekte/snns/announce.htmlTrajanTrajan Software Ltd.,Великобританияhttp://www.trajan-software.demon.co.uk/commerce.htm169PDF created with pdfFactory trial version www.pdffactory.comГенерирует ANSIсовместимый кодБесплатноОдин из лучшихсимуляторов.