Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789), страница 106
Текст из файла (страница 106)
Критерий максимума правдоподобия. Этот небайесовский критерий можно рассматривать как вариант байесовского критерия максимума послеопытной плотности вероятности (!5.!5) при Р(Ал) = сопз!. В задаче классификации принимается решение Ал, для которого р(у ! Ал) = шах при х = х.
(15.16) При переходе к непрерывным параметрам сь, принимается такая оценка а, для которой р(у~а)= шах при а=с! (15.17) Функции р(у)Ал), р(у)а), входящие в (15.!6)-(15.17), называют функциячи правдоподобия значений рассматриваемого парачетра. Оценки, обеспечивающие максимум этих функций, называют.максимальна правдоподобны ми (МП) или наиболее правдопадобнылш (НП) решениячи или аценкачи, хотя о максимальной правдоподобности — в отсутствие априорных данных при малом, на практике, числе опытных выборок — говорить не следовало (см. разд. 20.5.1).
Тем не менее, в небайесовской теории критерии (15.16)-(15.!7) рассматриваются как самостоятельные, не связанные с введением априорных вероятностей. Критерий максимума правдоподобия дополнительно поясняется в разд. 16, 20 и используется в послелующих разделах. Поясняются и его изъяны, особенно в разд. 25.2.1, 25.3.4, 25.8.3, проявляемые при не очень (не асимптотически) больших выборках. Небайесовский критерий наименьшего (минимального) среднего квадрата ошибки (НСКО, МСКО). Ошибкой в небайесавской теории считается отклонение случайной оценки от предполагаемого известным истинного значения параметра. Сравните, в байесовской теории известной считается оценка, от которой отклоняется истинное значение параметра, это иногда существенно.
В скалярном случае рассматриваемый критерий имеет вид М[й-а1~]=!а-а1~ =ппп. (!5.18) а В качестве эвристического, этот критерий часто используют при негауссовском распределении ошибок как самостоятельный критерий, что практикуется особенно широко в теории управления. Для многомерных параметров минимизируют математическое ожидание квадратичной формы с положительно определенной матрицей ошибок. В некоторых случаях критерий НСКО в интересах робастности (см. разд. 15.2.3 и [1.67)) заменяют крчгерием.чинимума.модуля ошибки. 16.2.3. Ненараметрические методы и критерии В отличие от байесовской статистики, предположения о доопытных распределениях параметров помех и сигналов и законах их распределения не вводятся.
В отличие от параметрических методов небайесовской статистики используются лишь самые общие априорные предположения (независимость, однородность, симметрия и т.д.) о структуре помех и сигналов при ограничении вероятности ошибок типа ложных тревог (разд. 16.1). Классические критерии непараметрической статистики [1.101] дополняют компьютерно-ориентированными [1.95а, 1.136а, 1.167).
Классические критерии непараметрической статистики. Их синтезируют эвристически для каждого класса задач раздельно, в отсутствие регулярных методов синтеза. Выборка из многомерного пространства у= у1 уз - у (15.18) преобразуется в выборку другого пространства, например, знаков величин у, (! =1,2,..., т) . Согласно разд. 17.11, эв- ристически синтезируемые знаковые и ранговые непарачетрические процедуры подавляют импульсные помехи, что достижимо и методами параметрической статистики (см. разд.
!7.! 0). Как и процедуры параметрической статистики, они оказываются предпочтительнее для одних видов распределений, чем для других. Критерии согласия экспериментальных распределений с теоретическими также относят [0.44] к непараметрическим критериям. Компьютерно-ориентированные критерии испытания и выбора решающих статистик. Элементы фиксированной выборки (15.18), повторяемые многократно М»т раз, используют для создания суррогата выборочного пространства.
Из него случайным образом многократно извлекают т-элементные псевдовыборки, в которые элемент у, может попасть несколько раз, а элемент у, — ни разу. Для псевдовыборок рассчитывают значения той же испытываемой решающей статистики, что и для принятой выборки, и отклонения их от последних. Статистические характеристики таких отклонений принимают за меру несовершенства решающей статистики. В литературе [1.95а, 1.136а] доказывают асимптотическую состоятельность такого подхода в тех случаях, когда элементы выборки априорно независимы.
Наименование бутстрвп такого подхода в англоязычной литературе (петля на заднике ботинка) нарочито демонстрирует его полезность и простоту. Применяя бутстреп к набору решающих статистик, обеспечивают выбор статистики, близкой к наилучшей в этом наборе [1.136а, 1.167). Бутстреп эффективен для 227 сложных решающих статистик, заданных в виде компьютерных программ в условиях сильной априорной неопределенности, обработки изображений н т. и. Крнтернн перестановок (пермутацнонные критерия). Часто рассматриваются как обобщенные бутстреп-крнтернн [1.13ба]. Рассчитаны на формирование псевдовыборок по-прежнему независимых элементов основной выборки.
16.2.4. Адаптивные и робастные статистические методы Решают задачи обработки информации прн нензвестных распределениях нлн параметрах распределений сигналов н помех. Сочетают байесовскне н небайесовскне, параметрические н непараметрнческне методы. Адаптация. Адаптация — приспособление биологическнх объектов н технических систем к нзменяющнмся, неизвестным заранее условиям функционирования (разя. 25). Меры защиты от помех давно разрабатываются в процессе развития техники раднопрнема. Адаптивный байесовский подход [1.18а, 1.41] сводятся к принятию байесовскнх решений после оценнвання неннформатнвных параметров помех нлн сигналов по максимумам послеопытной вероятности, плотности вероятностн нлн максимуму правдоподобия (разд. 21, 25).
Прн этом иногда упускаются недостатки небайесовского оценнвання по максимуму правдоподобия прн ограниченных размерах выборок. Совокупности задач адаптации к помехам, связанных с оценнваннем неизвестных параметров, посвящен разд. 25. До этого в разд. 16-24 используются гнпотетнческне параметры н распределения помех н сигналов, которые на практике обычно оказываются неизвестнымн. Разд. 25 придает логическую завершенность материалу упомянутых разделов. Адаптация возможна не только к параметрам законов распределения, но н к самим этим законам. Так, определяя оценку параметра сигнала прн па»игауссовской моделя его послеопытного распределения (см. разд.
13.7.7), учнтывают степень негауссовостн распределения (см. разд. 20.6) прн вторичной обработке (см. разд. 22.7). Учет непараметрнческой неопределенности на основе нейрокомпьютерной адаптации обсуждается, по существу, в разд. 24.13. Робастные алгоритмы решений. Английское прнлагательное гоЬпзг характеризует как устойчивость, так н загрубленность этих алгоритмов. От ннх требуют высокой (хотя н не наивысшей) эффективности в случае запланированных ситуаций н приемлемой эффективностн прн обусловленных заранее отступлениях от плана (моделн). Робастные алгоритмы обычно строятся без явной оценки неннформатнвных параметров.
От безусловной статистической оптияяэайяи часто переходят прн этом к условной [1.67, 1.76, 1.78,, 1.83„1.97, 1.117]. Разрабатываются корректные методы синтеза робасгппых алгоритмов. Исходят нз мнннмаксных методов байесовской н небайесовской статистик: мнннмнза- цнн риска нлн другого показателя несовершенства решення прн максимально неблагоприятных для данной задачи условиях.
Варианты эффектнвной оптимизации показателей робастностн (на основе мнннмаксных представлений) предложены в [1.167]. Некорректно полученные результаты могут иногда регулярязяроваться (разд. 21.11, 22. 1О). Робастность обнаружения к отступлениям закона распределения помехи от гауссовского может быть обеспечена также использованием негауссовскнх, но связанных с гауссовскими распределений (разд. 13.6.3, 17.10). Байесовскне н непараметрнческне небайесовскне методы могут быть использованы н прн сглаживании оценок с аномально большими выбросами (разд. 22.10.2), прн компенсации помех (разд.
17, 25). Робастные, байесовскне, адаптивные н непараметрнческне небайесовскне решения смыкаются в отдельных случаях, например, применительно к робастностн по отношению к интенсивности помех (разд. 17, 25). 16.8. Методы условной статистической оптимизации Используются прн заданной структуре алгоритма нлн устройства обработки для обеспечения его робастности к дополнительным воздействиям. Последнее может сводиться к заданию конкретных: ° структуры нейросетевой модели искусственного интеллекта (см. разя.
5.7, 24.13); ° вида неадаптнвной н адаптивной компенсации помехи (см. разд. 17.6 н 25); ° варианта фильтрации сигнала (см. разд. 16.3.4) н т.д. Заданная структ»ра является условием, прн котором, согласно правилам разд. 14 проводится оптнмнзацня статистических характеристик систем, зависящих от неслучайных конечномерных параметров. Прн неслучайных бесконечномерных параметрах (характернстнках фильтров, сигналов), наряду с дискретными, нспользуют варнацнонные методы [1.60, 1.61].