Л.А. Растригин - Теория и применение случайного поиска (1121205), страница 5
Текст из файла (страница 5)
На практике, однако, встречается проблема плавающего экстремума, тогда параметр о=(иД. Если при дискретном времени случайный процесс $~ является условно независимым и управляемым при помощи управления б, то этот процесс— марковский управляемый процесс, определенный тройкой Д„б, и), где В=йд' б=й ); п=(о ). (2.3.10) 25 Как правило, управление б представляет собой функционал вида б~=б1(хь У ', и'), !)О.
(2.3.11) Параметр о=(о,), как правило, должен удовлетворять определенным условиям, например: р =р(! йь-'). (2.3.12) В зтом случае мы опять будем интересоваться средней потерей 1Р (б) = Мб У7 (хь 4) (2.3.13) плн же оптимальным алгоритмом случайного поиска. Кроме того, нас интересуют достаточные статистики случайного процесса (например, апостерпорные вероятности). 5. Не разработана теория случайного поиска как управляемого марковского процесса. 3.2. Сложные марковские процессы случайного поиска Выше мы предполагали, что случайный процесс является марковским процессом порядка.
Речь шла, в сущности, о секвенционном марковском процессе — о простой цепи. Однако прп случайном поиске в процессе обучения (без забывания и с забыванием) более выгодно рассматривать сложный марковский процесс — сложную цепь Маркова, когда, грубо говоря, условные вероятности будущих состояний зависят от й предыдущих состояний. Сложный случайный марковский процесс А-го порядка определен следующим образом. Последовательность случайных величии (х,) образует сложный марковский процесс А-го порядка, если для любых Х н п с вероятностью 1 действительно отношение (хп (!) ~~1~!ха-ь хи-2 ° ° =Р(х„(!) ='Х!х, ь..., х„, ь).
(2,3.14) Если й=!, тогда говорим, что речь идет о простом марковском процессе. Если случайная последовательность является конечной, то сложный марковский процесс можно рассматривать как простой марковский процесс, однако с большим числом состояний. Если процесс будет стационарным, то достаточно задать переходную вероятность Р(к„(1) =)~хе а(1) =(ь..., х„~(1) =Ц, (2.3.15) согласно которой можно вычислить все остальные переходные вероятности. Если обозначить й — мерный вектор Х= (х„-а+ь ..., х„), то процесс х„ является марковским процессом с переходнымп вероятностями Р;е;,~,,~„. Если каждое из х„может иметь М значений, то вероятности Р;,;,й;„детерминируют стохастическую матрицу с Жх строками и столбцами, соответствующими л1" возможным значениям, которые могут принимать пх из Х„. Во многих (но не во всех) случаях элементы стохастической матрицы — нулевые.
Действительно, Р.;с,;,+~,...,;,ныл только в случае, если 1,=1„...,1л ~ — — (х; тогда ненулевыми могут быть только М~+' переходные вероятности. Сложные марковские процессы имеют большое значение также для управляемых марковских процессов й-го порядка. 11апример, для определения достаточной статистики надо учитывать все последние й явления, а пе только предпоследнее; или же учитывать предпоследнее явление и й состояний (прп условии, что число состояний является конечным).
Заметим, что общий стохастический процесс не должен быть сложным марковским процессом. Известны случаи, когдавследствие суперпознции двух марковских процессов может возникнуть общий стохастический не марковский процесс. б. Не решены задачи случайного поиска как сложного марковского процесса (общего и управляемого).
3.3. Мартингальные процессы случайного поиска Щ На практике встречаются особые случайные процессы типа М(х„+~)х„,..., х )=х„, (2.3.16) причем М(х(1) 1) <ао для любого 1, или же процессы М(х,+, (х„,..., х ))х„, (2.3.17) где М вЂ” условное математическое ожидание. Какова основная идея этих случайных процессов применительно к процессам случайного поиска? Как оыло показано ранее, задача случайного поиска состоит в определении такой последовательности значений Я (Х!),... ... Д(Х'), при которой ацр Я(Х) =Я(Х*), где Я(Х*) — — желательное состояние. Определение последовательности случайных векторов Х', Хз,..., Х" является достаточным для того, чтобы получить экстремальное значение Я (Х) в конечной последовательности й.
Если сделать выоор дискретного типа алгоритма, например, согласно отиошеншо Хлэ' = Х!г+ Л Хн+', (2,3.18) где ЛХл+! — случайная реализация вектора, то такой процесс будет рассматриваться как процесс дискретный. Как правило, случайная реализация приращения вектора ЛХл+! является векторной функцией условной вероятности собственного процесса, или же любого вектора памяти Ф, т.
е. йХ '=1 (ЛХ '~ Х',..., Х "-'), (2.3.19) или же (2.3.20) ЬХл=Р'(ЬХн~%!,...,%~' '). В работе [5) приводятся условия, при которых этот процесс является мартппгальным или полумартиигальным. Если обозначить ЛХ~ = алунЕк, где ал — величина шага; ул — нормализованный коэффициент; Ыл — единичный случайный вектор, то должны быть соблюдены следующие условия: СО О 1) а) ~;ам=со; Ь) ~ах'<оо; с) ан)0; Ж ! э-! 2) М(Е!г1Х!,..., Хл) =сЧл+и!т. Здссь М вЂ” математическое ожидание; 0<с<С<со; л!л — систематическая помеха на й(-м шаге; хгл — градиент функции Я(Х) в точке Хи; 3) у„эм((!Еи!Р~Х,,,Х вЂ” ) <й!<-, 28 где 1!Е"!!з — норма случайного вектора; ОЭ 4) а) ~ан!(т"!!(оо; Ь) ~ — !!лтн!! =оо; Ь=! л:-~ сн 5) б(Ен)Х',..., Хн-') (оо, где В -- дисперсия, Такой процесс сходится в экстремуме Я(Х) с вероятностью 1, т.
е. Р (!пп Я(Хн) =знр Я (Х)). (2.3.2 ! ) 7. Остаются однако еще вопросы, связанные с проблемой надежности поиска: если У вЂ” конечное число, какова вероятность Р(!нп Я(Х"):-зцр Я(Х)), (2.3.22) л х где К>0 достаточно большое число? Кроме того, оста1отся открытыми вопросы относительно условий применении случайного поиска в полумартпнгальном или мартннгальпом процессе.
С точки зрения инженерной практики, такие процессы имеют большое значение, так как позволяют разработать сравнительно несложные типы алгоритмов. й 24. СЕМАНТИЧЕСКИЕ АСПЕКТЫ ТЕОРИИ ИНФОРМАЦИИ СЛУЧАИНОГО ПОИСКА В математическом описании случайного поиска пани было показано, что в процессе определения следующего состояния системы речь шла, в сущности, о решающем процессе. При описании этого процесса можно использовать термин теории семантики информации «ценная ипформацияа, которая с определенной точки зрения имеет самое большое значение для оптимиза.
цип объекта. Вопросами ценности информации в наблюдаемом процессе занимался Р. Л. Стратоновнч [6). Приведем основную идею теории семантики информации. Рассмотрим структуру схем управления согласно рис. 2.2. Надо определить вектор управления !) с данным априорным распределением вероятности р(0), Управляемый вектор 0 поступает на вход соединяющего канала !, на выходе которого 29 определен случайный процесс, заданный вектором у=Лот= = (Еь 0(/~Т) с мгновенными значениями компонент вектора го Предположим, что будет рассматриваться система с одним параметром, поэтому векторы в дальнейшем писать не будем. Рис.
дд Далее предположим, что расположение условной вероятности Р(г/вот/1з) известно (о/гот — подобласть пространства г с элементами лот). Оптимизация алгоритма происходит в блоке //, оформляющем «цепную информацию». Блок /// представляет собой собственно объект управления с выходной величиной х. Согласно (6), существуют два способа решения задачи: термодинамический и нетермодинамический. При термодинамическом способе рассматривается повторение нескольких наблюдений, которым соответствуют различные значения величины х.
При нетермодннамнческом способе такое повторение не нужно. Из приведенного выше рассуждения вытекает следующий вывод: оценка «ценной информации» распадается на два этапа: 1) нахождение величины ог и(вот), которая определяется так называемыми достаточными статистиками, или координатамн о„...,охп 2) оценка информации как функции достаточных статистик. Следовательно, можно сказать, что проблема ценности информации сводится к проблеме определения достаточных статистик, или же координат, и функции достаточных статистик «Ценную информацию» получим минимизацией среднего значения штрафа /с =М (с'(вот, х)), (2.4.1) где с*(вот, х) =М (с(и, х) ~лот)= ~ с(и, х) р(и(вот) « т Р(~/ао'(и) Р(и) Р(с/хо*1и) Р(и) Р(г/вот) Р(Ыот(и) р(и) 30 При иетермодпнамическом принципе хе-х(гат) принимает одно из М возможных значений хь...,хм, при котором дости.
гается минимум среднего значения штрафа (2.4.1). Потом мерой ценности информации может служить такое числой=й(гчт) (координата), которое относится к хм дающему минимум (2.4.1). Прн термодинамическом принципе оптимальное х будет зависимо от гат случайным способом. Минимизация (2.4.1) осуществится по условному распределению вероятности р(х(аат). Количество информации будет определено согласно отношению (2.4.2) р (х) Соответствующее оптимальное расположение р,ш(х/гат) может служить мерой ценности информации. Иногда для вычисления функции ценности и(!) более выгодно применять метод достаточных координат.
Достаточные координаты обозначим п(гат) =(о,(аат),..., ол(г,т)). Это однозначные функции гат. Можно доказать (61, что величины о,=п,(гат) являются достаточными для определения ценности информации при термодннамическом и нетермодинамическом принципах. Надо привести одно важное положение, а именно: действительное число величин, достаточных для определения ценности информации, может быть меньше числа названных выше координат. В некоторых случаях достаточной координатой для определения цепной информации является математическое ожидание. Иногда может случиться, что величина, достаточная для определения ценной информации при нетермодннамическом принципе, является недостаточной для термодннамического принципа, и наоборот.