Боровиков В.П. - Нейронные сети (778916), страница 68
Текст из файла (страница 68)
Теории вероятностей. — М.: Наука, 1976. Драйвер Н., Смит Г Прикладной регрессионный анализ. Т. 1, 2. — Мс Финансы и статистика, 1987. Ивченко Г И., Медведев Ю.И. Математическая статистика. — Ми Высшая школа, 1992, Колчин Ф.В., Севастьянов Б.А., Чистяков В.П. Случайные размещения. — Ми Наука, 1976. Крамер Г. Математические методы статистики. — Ми Мир, 1976, Леман Э. Теория точечного оцсннваиия.
— Ми Наука, 1991. Леман Э. Проверка гипотез. — М.: Наука, 1980. Прохоров Ю.В„Розанов Ю.А. Теория вероятностей. — М.: Наука, 1973. Рао С.Р. Лш~ейные статистические методы и их применения. — М.: Паука, 1968. Розанов 10.А. Лекции по теории вероятностей (2-е изд.). — Ми Наука, 1986. Розанов Ю,А. Стационарные случайные процессы. — Мс Физматгиз, 1963. Розанов 1О.А. Теория вероятностей, случайные процессы и математическая статистика.
— Ми Наука, 1985. Сборник задач по теории вероятностей, математической статистике и теории случайных функций / Под ред. А.А.Свешникова. — Ми Наука, 1970. Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1, 2. — Мх Мир, 1964. Ширяев А.Н. Вероятность. — Ми Наука, 1980. 388 Предметный указатель А Автоассоциативныс сети....,..., ., 1! 8 Аксиоматика теории вероятностей...,......... 46, 47 Анализ главных компонент.........
328 Ансамбли ....................... 124 Архитектура сети...,.... 66, 69, 126, 18! ....... 286 140,!41, 283 ......70,98 ........ 97 ... 94 ... 68 .. 102 ... 65 яя Вайсса формула.......... Байссовы сети........... бинарное представление .. ...
55 .. 181 .. 107 В Вероятностные сети........ 98, 157 — 159 Вес .. 63 .... 114 . 109, 186 . 136, 137 .. 169, 188 ...... 176 ...... 187 ...... !86 Временные ряды...... Входная переменная... Выбросы..........,, Выходная переменная.. ... 21 ... 82 .. 102 ... 67 Г 1'снетичсский алгоритм отборавходныхданных... Генератор кода ......... График обучения........
... 43,178 .. 368-371 .. 158, 287 Дискриминантнй анализ............ 299 Добыча Данных(Оа!а М(шо8) ....... 338 Запуск сети .. .. 130 ... 84,286 ...90, 119 .. 106, 203 ...... 105 .. 16!, 162 .. 103, 288 ...... 104 389 Инерция........... Исключающее ИЛИ . Классификация.... Кластер........... Конструктор сетей . Кохонена сети..... обучение ....... Коэффищгент инерции (момент) ...........
Кросс-проверка..... К-блвкайпщх соседей К-средних алгоритм .. л Лсвснбср~а-Маркара метод... Линейная отделимость....... Линейные сети............. Логистическая функция...... М Мастер решений........... Масштабирование......... Матрица ошибок.......... Метод максимально~о правдоподобия ............ Многослойный персептрон .. Множественная регрессия... Модель Розенблатта......,, Наблюдения.........,...,...,, . 122 Набор данных.............., .
121, 126 Нейрон.............,......62-64, 73 Номинальцыепсременные .... 18,80,175 Нормальное (гауссовское) распределение,................. 33 — 36 Обобщенно. регрессионные сети........ 101, 160, 161 Обратное распространение....... 84, 127 Обратная связь.................... 74 Обучение сети........... 66, 67, 82, 127 Окно прогноза.................... 114 Окрестность ................. 206, 215 Остановка обучения...............
284 Отбор переменных.......,........ 115 Ошибка для отдельных наблюдений...................... 130 Оценка качества сети........... 112, 287 Статистики классификации Создание сети..... Сохранение сети... .. 109, 136, 287 .......... 124 ...,,.126,127 ....
12 ,... 26 .... 26 .... 80 ... 129 .... 85 113, 296 .... 83 ... 167 .. 143, 144 ....... 53 ...... 327 ....... 55 ,...... 55 . 63,65,66 .. 105, 153 .. 95,148 ..... 160 ..... 146 ..... 165 Шкалирование Штраф. ... 80 168 ..65,95 . 63 129, 199 .... 94 185 Энтропия. Эпохи..... ............. 185 ... 85, 129, 144, 199 Ядерные оценки Непрокные сепв, ЗТАТ!ЗТ!СА Невка! Мягко(кз Переменные.................. зависимые.........,......, независимыс .......,....... номинальные.............., Перемешивать наблюдения...... Переобучение................. Поверхность отклика.......... Поверхность ошибок........... Поколение.................... Понижение размерности .......
41,115,117,179,190 Постпроцессировацие .............. 79 Популяция....................... 167 Порог.. 63 Проекция ряда.......,..........., 170 Прогноз вперед................... 114 Промежуточные (скрытые) слои...... 68 Пропущенные значения............
188 Р Радиальные базисные функции (РБФ)... Регрессионные сети...,,, Регрессия............,,, Рсгуляризация весов...... С Сигмондальная функция...... Синапс. Скорость обучения.......... Сопряженных градиентов метод Софтмакс Тип наблюдения.................. 275 Тип переменной.......,.......... 275 Топологическая карта...... 104, 151, 154 Э' Условия остановки ...., . Условная вероятность.... «$в Факторный анализ...... Формула Байеса....... полной вероятности . Функция акгивации..... Центры радиальных элементов....., 149 вй Частоты выигрышей..... Огпавпение 3 4 119 119 120 124 126 127 130 133 138 138 140 143 145 148 !50 151 391 Предисловие но второму изданию. Введение.
Приглашение в нейронные сети Глава 1. ОСНОВНЫЕ ПОНЯТИЯ АНАЛИЗА ДАННЫХ Глава 2. ВВЕДЕНИЕ В ТЕОРИЮ ВЕРОЯТНОСТЕЙ Глава 3. ВВЕДЕНИЕ В ТЕОРИЮ НЕЙРОННЫХ СЕТЕЙ Глава 4. ОБШИЙ ОБЗОР НЕЙРОННЫХ СЕТЕЙ Параллели из биологии. Базовая цскуссгаенная модшчь. Применение нейронных сетей . Пре- и постпроцессироаание. Многослойный персепгрон Радиальная базисная функция .. Всроятносзная нейронная есть Обобшенно-регрессионная нейронная есть Линейная сеть.... Сеть Кохонена, Задачи классификации . Задачи регрессии Прогнозирование временных рядов . Отбор переменных и понижение размерности . Глава 5. ПЕРВЫЕ ШАГИ В БТАТ1$Т!СА 1ЧЕВВА$. 1ЧЕТ%ОЯКБ ..
Начинаем работу Создание набора ланных, Создание новой сети Создание набора данных и сети Обучение сети . Запуск нейронной сети . Проведение классификации Глава 6. ДАЛЬНЕЙШИЕ ВОЗМОЖНОСТИ НЕЙРОННЫХ СЕТЕЙ Классический пример: Ирисы Фишера Обучение с кросс-проверкой Условия остановки Решение задач регрессии . Радиальные базисные функции.
Линейные модели Сети Кохонена. !2 .. 62 71 72 73 . 75 . 79 82 . 95 98 101 . 102 . 103 106 . 109 . 113 . 115 Вероятностныс н обошенно-регрессионные сети. Конструктор сетей Генетический алгоритм отбора входных данных Временные ряды. Глава 7. ПРАКТИЧЕСКИЕ СОВЕТЫ ПО РЕШЕНИЮ ЗАДАЧ Представление данных .. Выделение полезных вхолиых переменных. Понижение размерности.....
Выбор архитектуры сети ., Пользовательские архитектуры сетей Временные ряды. Гл Глава 9, КРАТКОЕ РУКОВОДСТВО Данные Сети. Обучение сетей Другие типы сетей. Работа с сетью Пересылка результатов в систему БТАТ!8Т!СА Глава !О. КЛАССИЧЕСКИЕ МЕТОДЫ, АЛЬТЕРНАТИВНЫЕ НЕЙРОННЫМ СЕТЯМ Классический лискриминаннтный анализ в 8ТА'1'18Т!СА. КлассиФикация Логит-регрессия Факторный анализ в 8ТАТ!БТ1СА.
Глава 11. ДОБЫЧА ДАННЫХ В 8ТАТ18Т!СА. Приложение!. Генератор кода . Приложение 2. Интеграция ВТАТ!ВТ!СА с ЕЯР-системами . Список литературы. Предметный указатель ава 8. ПРИМЕРЫ ПРИМЕНЕНИЯ ! !ример!. Понижение размсрнотси в геологическом исследование Пример 2. Распознование образов . Пример 3. Нелинейная классификация двумерных множеств....
Пример 4. Сегмгл! тания различных образцов топлива по паиным лабораторного исследования Пример 5. 11остроспие молели новелецческого скоринга...... Пример 6. Аппроксимация функций. !!ример 7. Прогнозирование продаж нефти . Пример 8 Мониторинг и прслсказание температурного режима иа усгановке Пример 9. Определение достоверности цифровой полписи..... 155 161 164 168 174 174 !76 179 !8! 184 188 190 190 196 202 21! . 2!8 229 241 257 . 265 272 .. 272 278 ..
282 289 292 298 299 . 299 . 3!5 . 3!8 327 338 .. 373 386 .. 389 .















