МИИ_12A_17 (C) (лекции)

2020-08-25СтудИзба

Описание презентации

Файл "МИИ_12A_17 (C)" внутри архива находится в папке "лекции". Презентация из архива "лекции", который расположен в категории "". Всё это находится в предмете "(мии) методы искусственного интеллекта" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр презентации онлайн

Текст из слайда

Neural nets:
Contributors’
Slides

Neural net tachnology
The questions to be discussed in lecture:

Why it works?

When it might not work?

What needs to be done?

What has been done?
Popov V.
2

Термины и
основные понятия
3

Glossary
 Contour map
 Partial derivative
 Continuous function
 Gradient descent
 Performance function
Кузьмин
4

Glossary
 Contour map (карта уровней)
 Partial derivative (частная производная)
 Continuous function (непрерывная функция)
 Gradient descent (градиентный спуск)
 Performance function (функция оценки)
Кузьмин
5

Glossary

Thingamajigger — штуковина (объект, который не
помнишь как называется)

Presynaptic thickening — пресинаптическое
утолщение

Synaptic gap — синаптическая щель

Threshold box — пороговое окно

Cumulative influence — совокупное влияние

Axonal bifurcation — аксональная бифуркация
(раздвоение аксонов)
Мищенко Николай
6

Нейрон
Мищенко Николай
7

Строение
нейрона
В центральной нервной
системе (ЦНС) по разным
оценкам насчитывается
20-100 млрд. нейронов.
Сальников
8

Строение
нейрона
Один нейрон может посылать
информацию большому числу
других нейронов и также
получать информацию от
большого числа нейронов
(от 1 до 100 000,
в среднем от 10000).
Сальников
9

История развития
10

История развития
нейронных сетей
 1943 – У.Маккалок, У.Питтс – формализация понятия
«нейронная сеть»
 1949 – Д.Хебб предложил первый алгоритм обучения
 1958 – Ф.Розенблатт изобрёл однослойный перцептрон
 1969 – М.Минский опубликовал формальное
доказательство ограниченности перцептрона, снижение
интереса к нейронным сетям
 1974 – Пол Дж.Вербос и А.И.Галушкин – алгоритм
обратного распространения ошибки для обучения
многослойных перцептронов
Булгакова
11

История развития
нейронных сетей
 1982 – Дж.Хопфилд изобрёл полносвязную нейронную
сеть с симметричной матрицей связей
 1985 – Дж.Хинтон, Т.Сейновски – изобретение машины
Больцмана (стохастическая рекуррентная нейронная сеть)
 1986 – Д.Румельхарт, Дж.Хинтон и Р.Вильямс – развитие
метода обратного распространения ошибки, взрыв
интереса к обучаемым нейронным сетям
 2007 – Дж.Хинтон (праправнук Дж.Буля) – алгоритмы
глубокого обучения многослойных нейронных сетей с
использованием ограниченной машины Больцмана
Булгакова
12

Нейронная сеть
13

Нейрон
Мищенко Николай
14

15

16

17

18

19

Modeling neuron
(0,1) input
x11
...
...
...
xnn
w11
x11
wnn
xnn
Modeling
synaptic
connection

Summer
Input Values
Попов К.
T
z
Threshold box
Multiplied
by weight
20

What are we modeling?
1. All or none (binary output)
2. Cumulative influence (summer)
3. Synaptic weight
Not modeling:
Refractory period (биол. период невозбудимости)
Axonal bifurcation (ветвление аксонов)
Time patterns
Попов К.
21

Threshold Trick
w11
x
w11
x11
...
...
...
xnn
x11
wnn
xnn
-1
=T

Summer
Input Values
Попов К.
Multiplied
by weight
T
z
Threshold box
Getting rid of
threshold
22

Neural net scheme
1)
,
(0
X
1
w
1
X


...
1)
,
(0
X
n
T
w
n
X
adder
Михайлишин А.В.
threshold
function
(0
,1
)
Z

Neural net scheme
1)
,
(0
X
1
1
X
n
w
-1
LET
W0 = T
0


...
1)
,
(0
X
X
w
ith
w
e
d
a c oi n
l
p m o
re sig cti
n
fu
T
w
n
X
adder
Михайлишин А.В.
threshold
function
(0
,1
)
Z

Contents
 Sigmoid function
 Performance function
 Gradient ascent
 Gradient descent
 The simplest neural net
 More neurons per layer
Галкина
25

Sigmoid function
Кузьмин
26

Sigmoid function
Галкина
27

Performance function
Desired output
Галкина
Observed output
28

Gradient ascent
 Find the maximum of performance function
 Adjust w on each step, moving in the direction
of most rapid ascent:
Галкина
29

Gradient descent
 Defferent performance function is used:
 Moving in the direction of most rapid descent:
 Gives the same result as gradient descent
Галкина
30

Simplest neuron net
 One input, one output, two connected neurons
(left and right), ol = ir
Галкина
31

Simplest neuron net
 Calculating the derivaties using chain rule:
Performance
function
derivative
Галкина
Sigmoid function derivative
32

Simplest neuron net
 Derivatives consist of repeating terms that can
be computed once:
where
Галкина
33

Simplest neuron net
 Now we can find how weights should change
on final layer...
 ...and on every other layer:
Галкина
34

More neurons per layer
 Generalization for any number of neurons per
layer
Галкина
35

More neurons per layer
 Weight change for final layer:
 For other layers:
Галкина
36

Примеры
37

Pretty well recognition
Popov V.
38

Not well recognition
Popov V.
39

Примеры работы
нейронной сети
Булгакова
40

Примеры работы
нейронной сети
Булгакова
41

Рекуррентная
нейронная сеть

Часть выходных данных подается заново
на вход слоям нейронной сети
Эффективно когда
важен порядок.
 Применяется в
 Обработке текстов
 Обработке видео

Струянский
42

Вопросы
43

Question for the
supervisor
What is the most frequent answer to any
question about neurobiology and why?
Мищенко Николай
44

Question for the
supervisor
What is the most frequent answer to any
question about neurobiology and why?
The answer is: «I don't know.»
Because there is a lot of unknowns in
neurobiology and we don't know how it
works in many cases.
Мищенко Николай
45

Questions
 Why the number of computations in
large neural networks does not increase
exponentially?
 What is the main idea of autocoding?

Questions
 Why the number of computations in
large neural networks does not increase
exponentially?
(Because you can reuse a lot of computation u
already did.)
 How
does the lecturer suggests to think
about neural nets?
(He suggest to think about like as a function
approximator.)

ВСЕМ БОЛЬШОЕ
СПАСИБО!
48

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Нашёл ошибку?
Или хочешь предложить что-то улучшить на этой странице? Напиши об этом и получи бонус!
Бонус рассчитывается индивидуально в каждом случае и может быть в виде баллов или бесплатной услуги от студизбы.
Предложить исправление
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5142
Авторов
на СтудИзбе
441
Средний доход
с одного платного файла
Обучение Подробнее