Пупков К.А., Коньков В.Г. Интеллектуальные системы (1-е изд., 2001) (1245264), страница 17
Текст из файла (страница 17)
Следует выделить два направлениятеоретических исследований, связанных с построением параллельныхалгоритмов обработки информации. Первое направление заключается вразработке специальных методов синтеза, ориентированных на получениепараллельных структур. Второе - состоит в разработке специальных алгоритмоввыполнения операций с матрицами, содержащих цепочки не связанных друг сдругом расчетов.
В настоящей статье в рамках первого направленияпредлагается принцип минимальной сложности алгоритмов распознаванияоценивания,позволяющийкорректносинтезироватьалгоритмы,ориентированные на реализацию в реальном времени на транспьютерах, дляширокого класса интеллектуальных динамических систем с внезапнымивозмущающими факторами.Постановка задачи.Решение проблемы создания высокоэффективных методов обработкиинформации в интеллектуальных динамических системах непосредственносвязано с разработкой математических моделей, которые отражают спецификусложных условий функционирования системы, таких, как неопределенность иизменение характеристик внешней среды, появление аномальных ситуаций,отказов источников информации, каналов связи, устройств, реализующихформирование управляющих команд другого оборудования, а также влияниевозмущений и помех.
Проведенные исследования показатели, что формализациярассматриваемого класса задач может быть естественным образомосуществлена с использованием математического языка гибридныхстохастических моделей, представляющих собой композицию случайныхпроцессов и цепей.Такая модель может быть представлена в виде следующихстохастических уравненийx(k 1) Фk[m(k), (k),m(k 1), (k 1),u(k)] x(k) Гk[m(k), (k),m(k 1), (k 1),u(k)] w(k)(130)z(k 1) Hk1[m(k 1), (k 1)]Gk1[m(k 1), (k 1)] v(k)где x (k ) - расширенный вектор состояния обобщенного объекта управления(ООУ) и модели окружающей среды (ОКС); u (k ) - вектор управляющихвоздействий; z ( k 1) - вектор доступных наблюдений; w(k ) и v (k ) некоррелированные между собой чисто случайные последовательностивекторов (дискретные белые шумы); Фk [], Г k [], H k 1[] и Gk 1[] - матричныефункции соответствующих размерностей.Специфика рассматриваемой задачи заключается в том, что вследствиевозникновения аномальных явлений и ситуаций в ОКС, а также отказов в ООУтакие характеристики, как ООУ и ОКС подвержены разнородным случайнымвнезапным изменениям (ВМ), для описания которых используются совместномарковские и полумарковские цепи.
В уравнениях (130) m(k ) - совокупностьмоментов последних изменений характеристик ООУ и ОКС, описываемыхполумарковскими моделями, причемm(k 1) {m1 (k ), m2 (k ),K, mN ( k )}(131)где mi (k ) - момент последнего, предшествующего текущему моменту k , ВИ i- го типа в ООУ (или ОКС):k 1, при возникновении ВИ i го типа в момент k 1(132)mi (k 1) mi ( k ), при возникновении такого ВИ .59)x(k ) M {x(k ) Z k , m(k ) mk , (k ) k },)y(k ) arg max[Pr{m(k ) mk , (k ) k Z k }],В начальный момент k 0 формально принимается, чтоmi (0) 0, i 1, 2,K, N 1, NВнезапные изменения характеристик ООУ и ОКС отражаются визменении совокупностей переменных переключения (ПП) (k ) , которые, всвою очередь, состоят из двух наборов величин (k ) { ( k ), ( k )}.(133)Переменные переключения, входящие в состав этих совокупностей,принимают значения на конечных множествах.
При этом (k ) изменяется всоответствии с полумарковскими моделямиPr{m(k 1) mk 1, (k 1) k 1 m(k) mk , (k ) k } (134) pk 1(mk 1, k 1 mk , k ),а (k ) согласно марковским моделямPr{ (k 1) k1 (k) k,m(k 1) mk1, (k 1) k 1}(135) pk1( k1 k,mk1,k 1),где Pr{ A B} обозначает условную вероятность события A при фиксированномусловии B , k - конкретное значение совокупности (k ) в момент (k ) .Для совокупности ПП (k ) задано также начальное распределение вмомент k 0Pr{ (0) 0 } p0 ( 0 ).(136)Условные априорные плотности вероятности начального состояния ООУ иОКС, а также шумов w(k ) и v (k ) при фиксированных значениях ППаппроксимируется гауссовскими распределениями в заданном видеf x(0){x (0) 0} N{x x0 (0),P0( 0 )},f w(k){w m(k) mk , (k) k ,m(k 1) m k 1, (k 1) k 1} N{w wk (mk , k ,mk 1, k 1),Qk (mk , k ,mk 1, k 1)}, (137)fv(k 1){v m(k 1) mk 1, (k 1) k 1} N{v vk 1(mk 1, k 1),Rk 1(mk 1, k 1)},где N {x x , P} обозначает гауссовскую плотность распределения в точке x сматематическим ожиданием (МО) x и ковариацией P .Задачаобработкиинформациивинтеллектуальнойсамоорганизующейся системе ставится как задача определения условныхапостериорных оценок вектора состояния и переменных переключения:(138)mk , kkгде Z {z (1), z ( 2), K, z ( k )} - измерительная информация, поступившая кмоменту k , M {} - математическое ожидание (МО).Принцип минимальной сложности байесовских алгоритмовобработки информации в переключающейся среде.
Решение поставленнойзадачи представляет собой теоретическую проблему, сложность которойобусловлена случайными переключениями матриц в уравнениях ООУ и ОКС(130) под влиянием разнородных внезапных возмущающих факторов. Дляпреодоления этой проблемы предлагается подход, базирующийся на развитииидей и концепций [36-39] применительно к задачам динамическогоискусственного интеллекта, в основе которого лежат специальные процедуры«ветвления-свертки» гипотез о внезапных изменениях в системе, реализуемой вреальном времени в процессе обработки информации.В принципе, существует множество вариантов «ветвления-свертки»гипотез на различных этапах процесса оценивания (перед прогнозированиемсостояния ООУ и ОКС, перед обработкой текущих изменений и т.д.).
Каждыйиз этих вариантов различается алгоритмом трансформации множества гипотезпри их размножении и при объединении нескольких гипотез в одну. Для каждойиз тестируемых гипотез вычисляются условные (парциальные) оценкирасширенного вектора состояния ООУ и ОКС. Поэтому вычислительнаясложность синтезируемого алгоритма обработки информации возрастаетпропорционально количеству гипотез о ВИ. Следовательно, для получениянаиболее простого в вычислительном отношении алгоритма следует стремитьсяуменьшать число рассматриваемых гипотез на каждом этапе процессаоценивания. С другой стороны, такое уменьшение, как правило, влечет за собойснижение точности вычисляемых оценок и достоверности решений,принимаемых при распознавании случайных событий.
Существуетпринципиальный вопрос об ограничении снизу на число рассматриваемыхгипотез, накладываемых исходной постановкой задачи (математическоймоделью изменения ПП). Эти ограничения сформулированы ниже в видесовокупности условий, составляющих существо установленного принципаминимальной вычислительной сложности алгоритмов распознаванияоценивания.Условие 1. После завершения обработки информации на каждомтекущем шаге должна быть сформирована совокупность статистик,достаточных для прогнозирования состояния ООУ и ОКС, а также значенийпеременных переключения в будущие моменты времени с учетом60математической модели обобщенного объекта и используемой аппроксимациипарциальных апостериорных плотностей вероятности вектора состояния.Условие 2.
Перед парциальным прогнозированием вектора состояния сk - го на (k 1) - й шаг совокупность фиксируемых в гипотезах значений ППдолжна обеспечивать независимость значения вектора x (k 1) в момент (k 1)от ВИ в случае, когда его значение x (k ) на предыдущем k - м шагефиксировано.Условие 3. Вычисление парциальных апостериорных оценок векторасостояния должно производиться для совокупности гипотез, в которых значенияПП зафиксированы таким образом, чтобы при заданном значении векторасостояния x (k 1) вектор измерений z ( k 1) не зависел от ВИ.Условие 4.
Перед обработкой текущих измерений набор парциальныхпрогнозируемых оценок вектора состояния должен обеспечивать возможностьвычисления функций правдоподобия любой из тестируемых в этот моментгипотез.Выполнение всех перечисленных условий гарантирует корректностьпроцесса обработки информации и, напротив, нарушение любого из них делаеттакой процесс некорректным.Адаптивная обработка информации в интеллектуальныхдинамическихсистемах.Применимсформулированныйпринципминимальной сложности при построении алгоритма распознавания-оцениваниядля рассматриваемой задачи (130)-(138).Достаточные статистики при гауссовской аппроксимации парциальныхапостериорных плотностей вероятности расширенного вектора состояния x (k )включают в себя апостериорные вероятностиqk (mk , k ) Pr{U k ( mk , k ) Z k }(139)гипотез U k ( mk , k ) {m(k ) mk , (k ) k } и совокупность первых двухмоментов апостериорных парциальных плотностей вероятности)xk (mk , k ) M{x(k ) Z k ,Uk (mk , k )(140))Pk (mk , k ) M{[x(k) xk (mk , k )] []T Z k ,Uk (mk , k )}.Здесь и далее для краткости обозначено [ x ] []T [ x ] [ x ]T .Совокупность статистик (139) и (140) должна быть вычислена накаждом k - м шаге процесса обработки информации.