Хайкин С. - Нейронные сети (778923), страница 4
Текст из файла (страница 4)
Одним словом, любым удобным для вас способом дайте нам знать, нравится или нет вам эта книга, а также выскажите свое мнение о том, как сделать наши книги более интересными для вас. Посылая письмо или сообщение, не забудьте указать название книги и ее авторов, а также ваш обратный адрес. Мы внимательно ознакомимся с вашим мнением и обязательно учтем его при отборе и подготовке к изданию последующих книг. Наши координаты; Предисловие 25 Благодарности Автор выражает глубокую благодарность многим рецензентам, юторые потратили свое время на чтение этой книги или отдельной ее части.
Хочу сказать большое спасибо доктору Кеннету Роузу (КеппесЬ Козе) из университета штата Калифорния в Санта-Барбара за существенный конструктивный вклад в написание книги и значительную помощь. Я благодарен доктору С. Амари (Б. Ашап) из Японии; докторам Сью Беккер (Бпе Вес1сег) и Рону Рэйсину (Коп Вас!пе) из Макмастерского университета; доктору Син Холден (Беап Но!оеп) из университетского колледжа в Лондоне; доктору Майклу Турмону (М(сЬае! Тштпоп), Пасадена; доктору Бабаку Хассиби (ВаЬа1с НазяЪ!) из Стэндфордского университета; доктору Раулю Йии (Рап1 Уее), бывшему сотруднику Макмастерского университета, доктору Эдгару Осуна (Ебйаг Ояша) из Массачусетского технологического института; доктору Бернерду Шелюпфу (Веглагс( БсЬейсор() из Института Макса Планка (Германия); доктору Майклу Джордану (М(сЬае! 1оп1ап) из Массачусетского технологического института; докторам Редфорду Ниалу (КасИогс( Ыеа!) и Зубину Гархамани (УоиЪ(п ОЬагЬяпап1) из университета Торонто, доктору Джону Тситсиклису (1оЬп Тясзйс)(з) из Массачусетского технологического института; доктору Джосу Принсипу (1озе Рппс(ре) из Университета штата Флорида; Гинту Пушюриусу (О!пс Рпз(соппз) и доктору Ли Фелдкампу (Ьее Реййсашр) из исследовательской лаборатории Форда; доктору Ли Гилесу (1.ее Ойез) из исследовательского института компании НЕС в Принстоне, штат Нью-Джерси; доктору Микелю Форкада (Мййе! Рогсада) из университета Далаканта (Испания); доктору Эрику Вану (Епс %ап) из института науки и технологии штата Орегона; а также доктору Яну Лекуну (Уапп ЬеСцп) из компании АТесТ КезеагсЬ, штат Нью-Джерси, за их неоценимую помощь в улучшении данной книги.
Мне также хочется поблагодарить доктора Ральфа Линскера (Ва1рЬ Ь!пз1сег) из компании 1ВМ; доктора Стюарта Гемана (Бсцаг~ Оешап) из Браунского университета; доктора Алана Гелфорда (А!ап ОеИогс() из университета штата Коннектикут; доктора Барта Коско (Вал Коз!со) из университета Южной Калифорнии; доктора Нариша Синха (ЫапзЬ Б!пЬа) из Макмастерского университета; доктора Костаса Диамантараса (Ковша 1)1ашапсагаз) из университета г. Тессалоники имени Аристотеля (Греция); доктора Роберта Якобса (КоЬегс 1асоЬз) из университета Рочестера; доктора Эндрю Барто (Апс(гезч Вагсо) из Массачусетского университета; доктора Дона Хуша ((эоп Нпвй) из университета штатд Нью-Мексико; доктора Йошуа Бенжио (УозЬца Вепй!о) из университета г. Монреаль; доктора Х.
Янга (Н. Уапя) из института науки и технологий штата Орегона; доктора Скотта Дугласа (Зсоп Поня!аз) из университета штата Юта; доктора Натана Интратора (ЫасЬап 1псгасог) из университета г. Тель-Авив (Израиль); доктора Владимира Вапника (Ч!ас((ппг Чари(Ь) из компании Атест ГсезеагсЬ, штат Нью-Джерси; доктора Тейво Кохонена (Теичо КоЬопеп) из Хельсинского тех- гв Предисловие нологического университета (Финляндия); доктора Владимира Черкасского (У1айш(г СЬегказз(су) из университета штата Миннесота; доктора Дзвида Лоува (ГэакЫ 1.оие) из Астонского университета (Великобритания); доктора Джеймса Андерсона (Зашез Апдегзоп) из Браунского университета; доктора Андреаса Андрео (Апдгеаз Апйеоп) из университета Джона Хопкина и доктора Томаса Анастасио (ТЬошаз Апаз!азю) из университета штата Иллинойс.
Я глубоко благодарен моему студенту-дипломнику Хью Пасика (НпяЬ Раз(ка) за выполнение множества компьютерных экспериментов в среде МАТБАВ, а также за создание ЪЧеЬ-узла этой книги. Большое спасибо также студенту-дипломнику Химешу Мадхуранату (НппезЬ МадЬпгапай); доктору Садасивану Путуссерипади (Бадая!кап Рпйпззегураоу); доктору Дж. Ни (1. Ы!е); доктору Паулю Йии (Рап! г'ее) и Гинту Пускориусу (б)п! Рпз1соппя) из лаборатории Роп1 КезеагсЬ за выполнение пяти экспериментов. Большое спасибо также Хью Пасику (НпяЬ Разйса) за вычитку всей книги. В этой связи хочется также поблагодарить доктора Роберта Дони (КоЬеп Ропу), доктора Стефана Кремера (Б!еуап Кхешег) и доктора Садасивана Путуссерипади (Баоаз!кап Рпйпззегурасу) за вычитку отдельных глав книги.
Автор также выражает благодарность своему издателю Тому Роббинсу (Тош КоЬЬ!пз) и издателю Алис Дворкин (Айсе Ри огЫп) за их полную поддержку и одобрение. Хочется поблагодарить Дженифер Маган (1епп!Тег МапяЬап) и сотрудников компании %езг%ог!д,!пс. (штат Юга) за издание этой книги. Автор выражает глубокую благодарность Бриджитт Майер (Впя!пе МЫег) из библиотеки Макмастерского университета за ее неоценимые усилия по поиску очень сложных ссылок и созданию столь полной библиографии. Следует отметить также помощь научного сотрудника библиотеки Пегги Финдлей (Рейку Р!п<Пау) и сотрудника библиотеки Регины Бендиг (Вея!па Вепйй).
И наконец (но не в последнюю очередь), автор благодарен своему секретарю Лоле Брукс ((.о!а Вгоокз) за оформление различных версий рукописи. Без ее помощи написание этой книги и ее издание потребовали бы значительно больше времени. ;-ОСНО,т -ж-обааНаЧЕНИЯ.. Важные символы атЬ аЬт © А О В соя(а, Ь) 1)Л Ь (Е) ег1с ехр Баю Е(п) Ух(х) Н Н ' К(п, и — 1) Действие Скалярное произведение векторов а и Ь Внешнее произведение векторов а и Ь Бииомиальиый коэффициент Обьедииеиие А и В Величина, обратная температуре Внешнее смещение, применяемое к нейрону )с (порог) Косинус угла между векторами а и Ь Глубина памяти Дивергенция Куллбека — Леблера между функциями плотности ве- роятиости ) и д Оператор, сопряженный Р Фуикпия энергии Энергия состояния г в статистической механике Статистический оператор ожидания Средняя энергия Функция ошибки Дополнительная функция ошибки Экспонента Средиеквадратическая ошибка или сумма квадратических ошибок Мгновенное значение суммы квадратических ошибок Свободная энергия Функция плотности вероятности для случайного вектора Х Подмножество (сетей) с минимальным эмпирическим риском Матрица Гессе (Гессиаи) Матрица, обратная Гессиаиу Квадратный корень из — 1, обозначаемый также как у Едииичиая матрица Информационная матрица Фишера Средиеквадратическая ошибка Матрица Якоби (Якобиаи) Матрица ковариации ошибки в теории фильтрации Калмаиа 2в Предисловие Кг!г ~т г Константа Больцмана Логарифм (оя Цч) Е(зт) М, М, п Дискретное время Ро Вероятность ошибки Р(с|С) Ра г,(з, Й; п) Непрерывное время След матрицы Оператор дисперсии тат (х,) гл (Й; п) К Квадратный юрень из матрицы К Транспонированный квадратный корень из матрицы К Функция логарифмического правдоподобия от вектора весов зт Функция логарифмического правдоподобия от вектора весов и, по- строенная на основе одного примера Матрица управляемости Матрица наблюдаемости Вероятность состояния г в статистичесюй механике Вероятность перехода из состояния г в состояние ) Стохастическая матрица Вероятность корректной классификации Условная вероятность ошибки е при условии выбора входного воз- действия из класса С Вероятность нахождения видимого нейрона машины Больцмана в состоянии а при условии фиксированной сети (положительная фаза) Вероятность нахождения видимого нейрона машины Больцмана в состоянии а при условии свободного функционирования сети (от- рицательная фаза) Оценка автокорреляционной функции х (и) и хь(п) Оценка функции взаимной юрреляции п(п) и хь(п) Матрица корреляции входного вектора Температура Обучающее множество (выборка) Функция Ляпунова от вектора состояния х Индуцированное локальное поле или акгивационный потенциал нейрона) Оптимальное значение вектора синаптических весов Синаптический вес синапса ), принадлежащего нейрону )г Оптимальный вектор весов Состояние равновесия вектора состояния х Среднее значение состояния х в термальном смысле Оценка х, обозначенная символом "крышки" Предисловие з9 )х! Абсолютное значение (амплитуда) х Комплексно сопряженное значение х, обозначенное звездочкой Евклидова норма (длина) вектора х Вектор, транспонированный к х Оператор единичной задержки Функция разбиения б,(и) Локальный градиент нейрона у в момент времени и Малое изменение вектора весов и Оператор градиента Оператор Лапласа Градиент .7 по ю Дивергенция вектора г Коэффициент скорости обучения Семиинвариант Стратегия Пороговое значение нейрона Й (т.е.