02Hastq_2_2010 (1006402), страница 9
Текст из файла (страница 9)
Многие события контролируются нами, мы видим причинную связь, исследуем и даже управляем. Многие события нами не контролируемы, они для нас случайны, причинная связь скрыта. Однако мы можем определять частоту появления таких событий. Если она стабильна, то окружающие условия и порождающие процессы неизменны. Такая последовательность событий называется стационарной. Частота появления событий (нормированная к общему числу испытаний) отождествляется с вероятностью. В быту вероятность интуитивно оценивается, как напряженность ожидания. Математики формально вводят пространство вероятностей, связанное с пространством событий. Из теории вероятностей выделилось направление математической статистики, изучающее методы формирования суждений по результатам практических наблюдений.
Мы широко использовали понятие наименьшего уклонения одной функции от другой. Искали «остаток» при вычитании сигнала и эталона. Математическая статистика позволяет строить суждения о вероятности величины этого остатка. Ибо мы предполагаем, что в структуре сигнала присутствует шум с известными вероятностными характеристиками. (Основными характеристиками шума являются закон распределения вероятности его амплитуды и энергетический спектр (Фурье преобразование от корреляционной функции)). Чаще всего мы имеем дело с гауссовым (нормальным) законом распределения: Р(х)=(1/ σ)ехр(-х2/2σ2).
где σ2– дисперсия шумов, х – наблюдаемая величина сигнала. Спектр шумов в полосе частот 0-ω обычно равномерный - это белый, не коррелированный шум. Удельная мощность на единицу полосы: No =σ2/ω. Если используется теорема Котельникова для представления шума, то N0 является средней энергией одного дискрета. Обычно белый шум проходит разные фильтрующие системы. Получается цветной шум. Часто шум является результатом случайного сложения многих импульсов. Импульсы характеризуются своей формой (спектром), и вероятностью распределения амплитуд и интервалов появления. В случае суммирования с перекрытием закон распределения общей амплитуды быстро стремится к гауссовому, нормальному. На практике для этого достаточно трех – четырех перекрытий. Спектр от суммирования не изменяется, поэтому знание спектра шумов позволяет судить о форме исходных импульсов.
Уравнение Гаусса нахождения остатка Q уже имеет вид:
Q =
[Сигнал - эталон + шум]2 dx = МИН.
Q является квадратичной формой х. При квадратичном преобразовании нормальное распределение переходит в распределение χ2, (χ2= ξ12+ξ22 +…+ξi , а ξ1,ξ2,…ξi – независимые случайные величины с нормальным распределением m1=0, σ = 1). Число i называют числом степеней свободы распределения χ2. Для нашего случая i=1 и распределение принимает вид: р(х)=1/√(2πх) (ехр-х/2), 0<x<∞. Оно показано на рис 8.1 Исследуя остаток Q строится решающее правило принятия решений, обеспечивающее заданные вероятности ошибок. Сформируем одно из таких решающих правил. На графике плотности вероятностей распределения амплитуд χ2 введем порог Q0. Если х0 (полученное значение остатка) меньше порога Q0, то вычитание успешно и сигнал соответствует эталону. Вероятность этого события равна площади графика закона распределения от нуля до Q0. Если х0 больше выбранного порога Q0, то вычитание не успешно, хотя с вероятностью, равной площади от Q0 до ∞ могло произойти ложное превышение и ложное решение об отсутствии успешного вычитания (т.е. превышение за счет выброса шума). Эти вероятности определяют характеристики решающего правила. С ними связывается функция потерь.
8.2. Определение момента начала импульса методом выделения второй производной.
П редварительная фильтрация обычно хорошо выделяет графики биосигналов для зрительного восприятия. Шумы приходится учитывать в зонах, где величина сигнала стремится к нулю, т.е. при измерении моментов начала и конца импульсов.
Пусть форма импульса u(t-τ) близка к показанной на рис 8.2. Будем считать, что точно знаем только вид начала этого импульса, остальное «тело» может быть произвольно. Вторая производная начала импульса так же показана на рис 8.2. Взятие второй производной в четыре раза увеличивает дисперсию шума (т.к. требует двойного вычитания отсчетов). Считаем форму второй производной эталонной с неизвестным параметром сдвига τ. Выражение сигнала производной с шумом обозначено y(t): y(t) = u(t-τо) +шум.
Неизвестна и амплитуда U, но для упрощения примем ее равной 1. Нас интересует оценка τ^ значения τо и характеристики надежности этой оценки. Теория дает два метода решения поставленной задачи: байесовский метод и метод максимума функции правдоподобия (МФП).
8.2.1. Байесовский метод
В этом методе искомая задержка τ считается случайной величиной с известным априорным распределением вероятности ра(τ). Метод позволяет найти распределение апостериорной вероятности задержки р(τ/у) при принятом сигнале у. Знание апостериорной вероятности это максимум информации, которую может дать эксперимент. Имея график плотности апостериорной вероятности можно получать как точечную, так и интервальную оценки τ^, определить дисперсию этой оценки и вероятность ее нахождения в выбранном интервале, т.е. знать вероятности возможных ошибок (и фактически произвести, подтвердить обнаружение u(t-τо)).
Произошло два совместных события (а,б), заключающееся в том, что:
1) в нашем эксперименте выпало значение τ0 и
2) выпала конкретная реализации маскирующего шума у. Мы приняли график:
y(t)=u(t-τ)+шум.
Нам известно распределение шума и, следовательно, условная вероятность полученной реализации: p(y/τ). Однако нам нужна вероятность не «у», а «τ» или "обратная вероятность" р(τ/у). Она находится из формулы Байеса: (Бейес, 1791г). Он установил правило умножения вероятностей:
откуда p(τ/y)=py(τ)=kpa(τ)p((y-u)/τ).
Будем считать шум состоящим из множества независимых отсчетов по теореме Котельникова. Тогда совместная вероятность равна произведению П1N парциальных:
p(τ/y)=py(τ)=kpa(τ)П1Npi((y-u)/τ).
Д
ля гауссова закона распределения произведение (под знаком экспоненты) переходит в сумму (или интеграл) по всей области существования y(t)
Раскроем квадрат под интегралом:
где ра(τ)- плотность априорного распределения значений τ, k- нормирующий множитель, остальные обозначения ясны из текста.
Видно, что мы вновь пришли к вычитанию образа из сигнала. Фактически отыскивается минимум расстояния между y(t) и u(t-τ) или максимум взаимной корреляции, т.е. проводится операция свертки y(t) и u(t-τ)) (или наблюдается выход согласованного фильтра с откликом u(t-τ)).
Фильтр с откликом, совпадающим с функцией эталона (но прочитанного в обратном времени) называется согласованным фильтром. Спектральный коэффициент передачи такого фильтра является комплексно сопряженным со спектром функции эталона. Этот фильтр максимизирует отношение сигнал/шум в решающем правиле. (Этот фильтр называется фильтром Норса. Норс опубликовал структуру этого фильтра в 1943 году. Статья была засекречена американцами до 1955 года и отечественные инженеры пользовались упрощенными оптимальными фильтрами академика Сифорова).
На рис 8.3а изображен типичный образец гауссова шума с шириной полосы от 0 до ω (ω -произвольно большая.). Начало отсчета эталона сигнала u(t) лишь условно, для наглядности показано известным (рис 8.3б). Введем обозначение:
где Т охватывает все возможные положения сигнала. В q(τ) обьединены все элементы, зависящие от τ. На графике рис 8.3г видно, как образование q(τ) уменьшает полосу шума и его величину. Корреляционная функция фильтрованного шума становится одинаковой с автокорреляцией сигнала u(t) → g(t). Уже зрительно ясно, где находится сигнал, ибо q(τ) имеет максимум в области истинного τ. Отметим, что для определения τ нет необходимости знания формы q(τ), ибо нам нужна только верхушка, максимум. Информация, содержащаяся в форме u(t) уже была полностью использована при нахождении q(τ). Переход от q(τ) к апостериорной информации происходит с использованием экспоненциального преобразования: ру(τ)=кра(τ)ехр{q2(τ)}. (Мы предполагаем, что априорное распределение ра(τ) равномерно).
Последнее преобразование четко выделило один пик графика. Сомнения в значении τ кончаются. В качестве оценки τ^ принимаем значение максимума ру(τ). При желании вместо максимума можно находить центр тяжести пика. Так же мы можем найти вероятность присутствия сигнала, определив площадь под пиком (т.е провести интервальную оценку, а заодно и обнаружение).
8.2.2. Ошибки случайного смещения
Мы можем сформировать оценку точечную или интервальную. С интервальной оценкой все просто, если нас удовлетворяет величина доверительной вероятности в выбранном интервале. В качестве точечной оценки принимаем максимум q(τ). Этот максимум не совпадает с истинным значением τ0 т.к. существуют малые шумовые сдвиги вокруг истинного значения. По этому для точечной оценки обязательно надо указывать дисперсию оценки и вероятность аномальных ошибок.
Для нахождения τ^ (как и для всякого определения точки максимума) берется производная q(τ) и приравнивается нулю. .
Процедура завершена, τ^ найдена. Необходимо еще найти дисперсию этой оценки. Для этого сигнальную функцию g(τ) разложим в ряд Тейлора вокруг точки τ0:
g(τ-τ0)=(2/N0)(1+ (1/2)g11(τ0)х(τ-τ0)2).
После взятия производной q(τ) в целом и приравнивания нулю можно выделить ошибку оценки (τ-τ0):
Дисперсия ошибки (τ-τ0) находится как ее средний квадрат: