Основы ТАУ - Ч-3 Оптимальные, многосвязные и адаптивные системы - Воронов [1970] (1189551), страница 58
Текст из файла (страница 58)
Если их сумма оказалась больше нуля, то объект относится к классу Х„если меньше — то к классу Х,. Таблица 9-3 Коды № власта 18 14 ! 15 18 !7 ) 18 !! ( !2 4! 5! з 7( 8 1 2 9 15 0 0 В табл. 9-8 приведены пласты, покавываемые при зкзамеве. Читателю предлагается проверить, что коды 2, 3 и 5 относятся к вефтеиоскым пластам, а остальные — к водоносным. Если бы мы проверили предложенную процедуру иа уже показанных объектах табл. 9-6, а и 9-6, б, то убедились бы, что алгоритм ошибается в пяти случаях из 20, т.
е. дает 80% правильных ответов. Более совершенные процедуры позволяют повысить число правильных ответов. 9-7. Метеды пееледевательиых прибили!елей в адаптации В !1941 сделана весьма интересная попытка дать обобщающую концепцию, позволяющую с единой точки зрения рассмотреть результаты и задачи теории адаптации, обучения и самообучения. Процессы обучения и адаптации можно трактовать, как процессы последовательных приближений.
308 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 о~о о)о 0 0 0 1 1 0 1 0 0 1 0 0 При трудностях аналитического решения уравнения (9-103) можно воспользоваться различными итерационными методами, в частности градиентным, в котором координаты текущей точки с [и] связываются с координатами предшествующей точки с [и — 1] и градиентом ~7»,» (с) посредством рааностного уравнения вида с [и] = с [и — Ц + у~ф (с [и — Ц). (9-104) Вид функции у определяет различные формы итерационных методов. Если метод сходится, то с течением времени с [и] приближается к оптимальному значению Пш с (и] = с з.
п»а (9-105) Алгоритм (9-104), который можно назвать регулярным алгоритмом, применим, если функция Ч задана и является аналитической. В случаях, когда она не задана или недкфференцируема, можно применить приближенный поисковый алгоритм: с и] ' с и»+» [[ 2 [ ] »О~ (с [и — 1], а [и]) — 0 (с [и — П, а [»»])~ (9 106) где приняты обозначения Д.». (с, а) = Я(с»ае,), Д(с:Й се,),, Д(с.+-аех)), е,= [1, О, О, ..., О), е,= (О, 1, О, ..., О), ... ея — — [О, О, ..., О, Ц (9-107) 1, — базисные векторы; а — скалярная величина, характериаующая приращение векторов с. Если »,» (х [ с) является случайной функцией, то естественно искать экстремум ее математического ожидания, однако, так как плотность распределения Р (х) часто заранее неизвестна, то аналитическое определение математического ожидания невозможно, и в этом случае прибегают к методу стохастической аппроксимации, идея которого была изложена Роббинсом и Монро [256].
При стохастнческой аппроксимации градиентный метод применяется не к математическому ожиданию, а к реализациям 309 Многие экстремальные задачи сводятся к отысканию экстремумов функций или функционалов многих переменных Х = »',» (см ..., ся) = »,» (с) . (9 102) Оптимальное значение вектора с, при котором функция Ч (с) достигает экстремума, обозначим через с*. Если функция аадана и дифференцируема, для отыскания с" можно приравнять нулю градиент функции (3: д( ) (э0(с) з~ ( )~ (9-103) г;1, ч (х ) с). Алгоритмы определения с -!- с е по методу стохастической аппроксимации принимают вид: с [и] = с [и — Ц+ уЧЯ (х [и] ~ с [п — Ц), (9-108) если !1 (х ~ с) аналитически вадана и дифференцируема. В про- тивном же случае можно использовать алгоритм с[п]=с[и — Ц+ ~ Щ (х[и]~с[п — Ц, а[и])— — ~) (х[и]~с[и — Ц, а[и])].
(9-109) Формула (9-108) представляет собою многомерный вариант процедуры Робинса — й!онро, а (9-109) — многомерный вариант процедуры Кифера — Вольфовица [235). Для сходимости алгоритмов (9-109), как показано в (194), необходимо соблюдение условий: ~~ у=со, ~, уз(оо; и ! л=! 1п1 М [(с — с *) т ЧЯ (х ~ с) ] ) О, е ) О; М (ЧЯ, (х ! с) ЧЯ (х ! с)) ( а (1 + с с), !т ) О. (9-110) Первое из зтих условий соответствует требованию, чтобы скорость уменьшения у (п), с одной стороны, обеспечивала бы исчезновение с ростом п дисперсии 1 (с), а с другой стороны, часто за время изменения у [и) можно было использовать достаточно большов число данных, при котором еще справедлив закон больших чисел. Помехоустойчивость стохастнческих алгоритмов высока, случайные аддитивные помехи практически не влияют на результат. Рассмотренная в предыдущем параграфе задача обучения распознаванию образов сводилась к построению равделяющей поверхности у=1(х), где х — п-мерный вектор в пространстве рецепторов (или признаков), а у — величина, характеризующая класс показанного объекта.
В частности, можно принять за условие распознавания [ +1, если х~А; в!дп1(х) = [ — 1, если хг-В. Аппроксимируем !'(х) суммой 1(х)= 'У, 'с !р,(х) =сг!р(х). Примем в качестве показателя качества аппроксимации математическое ожидание некоторой выпуклой функции с' от разности 1(х) — 1(х) = у — с! !р (х): 1 (с) = М [с (у — ст~р (х) ) .
(9-111) Наилучшая аппроксимация, при которой 1 (с) достигает минимума, найдется из условия Ч1(с) =М (Р'[у — ст~р (х)] ~р(х)]) =О, где Р' — проиаводная функции Р по ее аргументу. Но так как плотность вероятности Р (х) показа вектора х, а следовательно, и математическое ожидание (9-И1) неизвестны, то для определения с мы можем воспользоваться лишь отдельными Рве.
9-24. реализациями, т. е. стохастической аппроксимацией. Применяя алгоритм (9-105) к нашей аадаче, получим с[п]=с[п — 1]+у[Р'(у[п] — с*[я--Цу(х[п])(~р(х[п])[. (9-ИЗ) Для сходимости алгоритма необходимо выполнение условий (9-ИО). Схема, реализующая алгоритмы (9-14), показана на рис. 9-24. На атой схеме векторные связи показаны двойными линиями. Такой подход позволяет объединить многие результаты, полученные в теории оптимального управления, идентификации, обучения, построения адаптивных систем, и представляет интерес как попытка с новых, позиций представить «старые» проблемы, такие, как проблема устойчивости (сходимость алгоритмов), качества (скорости сходимости), а также и ряд проблем теории надежности и исследования операций (194). ЛИТЕРАТУРА 1, Автоматическая оптимизация управляемых систем.
Сборник переводов под ред. Б. Н. Петрова. Изд-во иностр. лиг., 1960. 2. Айаерман М. А., Браверман Э. М., Глушков В, М,, Ковальский В. А., Летичевский А. А. Теория распознавания образов и обучающих систем. Изв. АЕЕ СССР, «Техническая кибер- нетикаэ, 1963, № 5, 3. Айзерман М. А., Браверман Э. М., РозоноэрЛ.И. Теоретвческне основы метода потенциальных функций в задаче об обучении автоматов разделению входных ситуаций на классы. А и Т, т. 25, 1964, № 6. 4.
А й а е р м а н М. А. Задача об обучении автоматов разделению входных ситуаций на классы (распознавание обрааов). В кн. Тр. П международного конгресса Международной федерации по автоматическому управлению, Дискретные и самонастраивающиеся системы. «Наука», 1965. 5, А л е н с а н д р о в П. С. Введение в общую теорию множеств и функций. Гостехиздат, 1948. 6, Александровский Н. М., Кузин Р. Е. Особенности автоматических оптимизаторов для промышленных объектов одного класса.
Тр. МЭИ, вып. 59, 1965. 7. АлексавДРовский Е1. М., КУзин Р, Б. Двухканаль- ный автоматический оптимиаатор ДАО-2. В кн. Доклады первой Всесоюзной конференции по самонастраивающимся системам, т. Е. «Наука», 1965, 8, Андр ее в Н, И. Определение оптимальной динамической системы по критерию экстремума функционала частного вида.
А и Т, т. 18, 1957, № 7. д, А н д р е е в Н. И. К теории определения оптимальной динами- ческой системы. А и Т, т. 19, 1958, № 12. 10, А н д р е е в Н. И. Общее условие экстремума ааданной функции среднеквадратической ошибки н квадрата математического ожидания ошибки. АиТ,т.20,1959, №7. 11. Аркадьев А. Г., Браверман Э. М.
Обучение машины распознаванию образов. «Наука», 1964. 12, Ах неве р Н. И., Крейн М. Г. О некоторых вопросах теории моментов. УССР, Харьков, Гостехиздат, 1938. 13. А х и е з е р Н. И. Лекции по теории аппроксимации. «Наука», 1д65. 14. Б е й р а х 3. Я. Динамика регулирования барабанного парового котла.
А и Т, 1939, № 2. 15. Б е й р а х 3. Я. Автоматическое регулирование котельных установок, В кн. «Автоматизация электростанций и знергоустановок». Оборонгиа, 1948. 16. Б о л т я н с к и й В. Г. Математические методы оптимального управления. «Наука», 1966. 17. Болтянский В. Г., Гамкрелидзе Р. В., Пон- т р я г и н Л. С. К теории оптимальных процессов. ДАН СССР, т. 110, 1956, № 1.
312 18. Б о н г а р д М. М. Моделирование процесса обучения узнавани«о на универсальной вычислительной машине. В сб. «Биологические аспекты кибернетики». Изд-во АН СССР, 1962. 19. Б о н г а р д М, М, Проблема узнавания. «Наука», 1967. 20. Бор-Раменский А. Е., Суп Цзянь. Оптимальныйсле- дящий привод с двумя параметрами управления. А и Т, т. 22, 1961, № 2.