Главная » Все файлы » Просмотр файлов из архивов » Файлы формата DJVU » Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика

Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика, страница 4

DJVU-файл Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика, страница 4 Нейросетевое моделирование сложных технических систем (1761): Книга - 11 семестр (3 семестр магистратуры)Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика: Нейросетевое моделирование сложных технических систем - DJVU, стра2017-12-21СтудИзба

Описание файла

DJVU-файл из архива "Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика", который расположен в категории "". Всё это находится в предмете "нейросетевое моделирование сложных технических систем" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "нейросетевое моделирование сложных технических систем" в общих файлах.

Просмотр DJVU-файла онлайн

Распознанный текст из DJVU-файла, 4 - страница

Теорема Колмогорова-Арнольда Построить многомерное отображение Х вЂ” > У вЂ” зто значит представить его с помощью математических операций над не более, чем двумя переменными Проблема представления функций многих переменных в виде суперпозиции функций меньшего числа переменных восходит 13-й проблеме Гильберта В результате многолетней научной полемики между А Н Колмогоровым и В И Арнольдом был получен ряд важных теоретических результатов, опровергающих тезис не- представимости функции многих переменных функциями меньшего числа переменных ° теорема о возможности представления непрерывных функций нескольких переменных суперпозициями непрерывных функций меньшего числа переменных (1956 г ), ° теорема о представлении любой непрерывной функции трех переменных в виде суммы функций не более двух переменных (1957 г ), ° теорема о представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения (1957 г ) 1.3.2.

Работа Хехт-Нильсена Теорема о представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения в 1987 году была переложена ХехтНильсеном для нейронных сетей Теорема Хехт-Нильсена доказывает представимость функции многих переменных достаточно общего вида с помощью двухслойной нейронной сети с прямыми полными связями с и нейронами входного слоя, (2п+1) нейронами скрытого слоя с заранее известными ограниченными функциями активации (например, сигмоидальными) и т нейронами выходного опоя с неизвестными функциями активации Теорема, таким образом, в неконструктивной форме доказывает решаемость задачи представления функции произвольного вида на нейронной сети и указывает для каждой задачи минимальные числа нейронов сети, необходимых для ее решения 20 1.3.3.

Следствия из теоремы Колмогорова — Арнольда — Хехт-Нильсена Следствие 1 Из теоремы Хехт-Нильсена следует представимость любой многомерной функции нескольких переменных с помощью нейронной сети фиксированной размерности Неизвестными остаются следующие характеристики функций активации нейронов ° ограничения области значений (координаты асимптот) сигмоидальных функций активации нейронов скрытого слоя, ° наклон сигмоидальных функций активации, ° вид функций активации нейронов выходного слоя Про функции активации нейронов выходного слоя из теоремы Хехт-Нильсена известно только то, что они представляют собой нелинейные функции общего вида В одной из работ, продолжающих развитие теории, связанной с рассматриваемой теоремой, доказывается, что функции активации нейронов выходного слоя должны быть монотонно возрастающими Это утверждение в некоторой степени сужает класс функций, которые могут использоваться при реализации отображения с помощью двухслойной нейронной сети На практике требования теоремы Хехт-Нильсена к функциям активации удовлетворяются следующим образом В нейронных сетях как для первого (скрытого), так и для второго (выходного) слоя используют сигмоидальные передаточные функции с настраиваемыми параметрами То есть в процессе обучения индивидуально для каждого нейрона задается максимальное и минимальное значение, а также наклон сигмоидальной функции Следсгпвие 2 Для любого множества пар (Х", У") (где У~— скаляр) существует двухслойная однородная (с одинаковыми функциями активации) нейронная сеть первого порядка с последовательными связями и с конечным числом нейронов, которая выполняет отображение Х -+ У, выдавая на каждый входной сигнал Х~ правильный выходной сигнал У" Нейроны в такой двухслойной нейронной сети должны иметь сигмоидальные передаточные функции К сожалению, эта теорема не конструктивна В ней не заложена методика определения числа нейронов в сети для некоторой конкретной обучающей выборки Для многих задач единичной размерности выходного сигнала недостаточно Необходимо иметь возможность строить с помощью нейронных сетей функции Х вЂ” ~ У, где У имеет произвольную размерность Следующее утверждение является теоретической основой для построения таких функций на базе однородных нейронных сетей.

У»»~~ Д бк р д выходных векторов произвольной размерности ((М», 'т»), й = 1...И) существует однородная двухслойная нейронная сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора М» формирует соответствующий ему выходной вектор т».

Таким образом, для представления многомерных функций многих переменных может быть использована однородная двухслойная нейронная сеть с сигмоидальными передаточными функциями. Для оценки числа нейронов с скрытых слоях однородных нейронных сетей можно воспользоваться формулой для оценки необходимого числа синаптических весов (.„в многослойной сети с сигмоидальными передаточными функциями: тИ (И < ( „< гп~ — »- 1 (и + гп + 1) + гп, (1. 5) 1+(оц И " ~т где и — размерность входного сигнала, ги — размерность выходного сигнала, И- число элементов обучающей выборки. Оценив необходимое число весов, можно рассчитать число нейронов в скрытых слоях. Например, для двухслойной сети это число составит: Ф (1.6) и »гп Известны и другие формулы для оценки, например: 2(п+ ~+ т) < И < 10(п+ ~+ гп), (1.?) — -и — т в (.

< — — и — гп . И И (1.8) 10 2 Точно так же можно рассчитать число нейронов в сетях с большим числом слоев. Иногда целесообразно использовать сети с большим числом слоев. Такие многослойные нейронные сети могут иметь меньшие размерности матриц синаптических весов нейронов одного слоя, чем двухслойные сети, реализующие то же самое отображение.

Однако строгой методики построения таких сетей пока нет. Аналогичная ситуация складывается и с многослойными нейронными сетями, в которых помимо последовательных связей используются и прямые (связи от слоя с номером г) к слою с номером (г)+р), где р > 1). Нет строгой теории, которая показывала бы возможность и целесообразность построения таких сетей. 22 Наибольшие проблемы возникают при использовании сетей циклического функционирования.

К этой группе относятся многослойные сети с обратными связями (от слоя с номером д к слою с номером (д+р), где р < О), а также полносвязные сети. Для успешного функционирования таких сетей необходимо соблюдение усповий динамической устойчивости, иначе сеть может не сойтись к правильному решению, либо, достигнув на некоторой итерации правильного значения выходного сигнала, после нескольких итераций уйти от этого значения. Проблема динамической устойчивости подробно исследована, пожалуй, лишь для одной модели из рассматриваемой группы — нейронной сети Хопфилда. Отсутствие строгой теории для перечисленных моделей нейронных сетей не препятствует исследованию возможностей их применения Отметим, что отечественному читателю приведенные результаты известны в более фрагментарной форме — в виде так называемой теоремы о полноте.

Тео ема о полноте. Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями, если функция активации неирона дважды непрерывно дифференцируема и непрерывна. Таким образом, нейронные сети являются универсальными структурами, позволяющими реализовать любой вычислительный алгоритм 1.4. Постановка и возможные пути решения задачи обучения нейронных сетей Очевидно, что процесс функционирования нейронной сети, сущность действий, которые она способна выполнять, зависит от величин синаптических связей. Поэтому, задавшись определенной структурой сети, соответствующей какой-либо задаче, необходимо найти оптимальные значения всех переменных весовых коэффициентов (некоторые синаптические связи могут быть постоянными) Этот этап называется обучением нейронной сети, и от того, насколько качественно он будет выполнен, зависит способность сети решать поставленные перед ней проблемы во время функционирования.

В процессе функционирования нейронная сеть формирует выходной сигнал У в соответствии с входным сигналом Х, реализуя некоторую функцию д. У = д(Х). Если архитектура сети задана, 23 то вид функции д определяется значениями синаптических весов и смещений сети. Обозначим через Й множество всех возможных функций д, соответствующих заданной архитектуре сети. Пусть решение некоторой задачи есть функция г.

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5209
Авторов
на СтудИзбе
430
Средний доход
с одного платного файла
Обучение Подробнее