Прокис Дж. - Цифровая связь (1266501), страница 14
Текст из файла (страница 14)
190) (2.1. 19 ) ) Обозначим решение (2.1.192) через ч. Тогда граница для вероятности верхнего хвоста Н П и а"„= Е(Уз) — пг~ = Е(У')-и",. = — „~Г~Е(ХХ,.)-т,". = —,~~~~Е(Х. )+ п ..., ' '. и-,„ + — у ~Е(ХХ.)-т =-!!т +т )+ — п(п-1)щ -!п = — ".. и и и и ! / :Если У рассматривать как оценку среднего !и, видим, что его математическое ожидание ,:=римо ага его дисперсия уменьшается с ростом объема выборки Х. Если Х неограниченно возрастает, дисперсия стремится к нулю.
Оценка параметра (в данном случае т), которая :".:удовлетворяет условиям. что ее математическое ожидание стремится к истинному ": 'значению параметра. а дисперсия строго к нулю, называется состоятельной оценкой. Квосговую вероятность случайной величины К можно оценить сверху, используя :::т!раницы, данные в разд. 2.1.5. Неравенство Чебышева применительно к г имеет вид Рф —,~~5)< —,', 5' ф~х,—...~ 5) В пределе, когда гг — >со, из (2.1.188) следует !! +~х,— „/ !~!=о.
Следовательно, вероятность того, что оценка среднего отличается от значения и!! больше, чем на 5 (5>0), стремится к нулю, если и неограниченно растет. Это положение является формой закона больших чисел. Так как верхняя граница сходится к - нулю относительно медленно, т.е. обратно пропорционально Х выражение (2.1.188) называют слпбым зпкопол! больишх чисел. Если к случайной величине У применить границу Чернова, соде ржашую зкспоненциальную зависимость от и, тогда получим плотную верхнюю границу для вероятности одного хвоста. Следуя процедуре, изложенной в разд. 2,1.5, найдем что вероятность хвоста для К определяется выражением (1 л Р(К вЂ” и!, >5)= Р~ —,"у Х, — !и > 5 ~ = ю=! / ( гГ„ тх,а !„е!~р~ ! тх,.— «ь„) ! ~=! где 5„=пг,+5 и 5>0.
Но Х„!=1, 2,, и статистически независимы и одинаково распределены. Следовательно, ~~~Р~ (Хх.-"!.Я='".4 Р~ ХхЯ= ПЕ(е"' ')= 1ге "'"Е(е"')1, ! ! где Х- одна из величин Х; Параметр ч, который дает наиболее точную верхнюю границу получается дифференцированием (2.1.191) и приравниванием производной нулю. Это ведет к уравнению Е(Хе~) — 5 Е(е"х)=0 (2.1.192) (2.1.19З) Аналогично мы найдем, что вероятность нижнего хвоста имеет границу Р(7<6„)<1е" Е(е" '")1, Ь <лг„ (2.1. 194) Пример 2.1.7. Пусть Х~ 1=1,2, ...,н-ряд статистически независимых случайных величин, определенных так: (2.1.
195) гле у — решение уравнения Е1Хе'~)= 0 (2. 1. 19б) Теперь Е1Хе"г)= -(1- р)е ' ~- ре' = О. Следовательно, у= !и (2.1. 197) Е(е" )=ре'+11 — р)е " Следовательно, для границы в (2.1.195) получаем / и Й ~„Х >01 <(ре'+(1-р)е "1 =~р ~ — ~-(1-р) ! — ~ <~4р!,1-рЯ . (2!.1981 Мы видим, что верхняя граница уменьшасгся экспоиенцивльно с л, как ',.'-:;: луотнвоположность этому согласно границе Чебышева вероятность хвоста ' абратно пропорционально и, Центральная предельная теврема. В этом разделе рассмотрим з::,::,-'.,::,-':::-лвлезную теорему, касающуюся ИФР суммы случайных величин в предел ,-:~ваагаемых суммы неограниченно возрастает, Имеется несколько версий -:::;:,.Докажем теорему для случая, когда случайные суммируемые величины :,! .~:';:;,статистически независимы и одинаково распределены, каждая из них им ."!!!!еднеет,.и ограниченную дисперсию (т„.
2 Для удобства определим нормированную случайную величину Х,-т, У,= ' ', 1=12,...,н. а, Таким образом, Ц имеет нулевое среднее и единичную дисперсию й ":: Теперь пусть ожидалось В уменьшается чрезвычайно е, когда число этой теоремы. Х, г'=1„2, ..., н, ест ограниченное 1 с вероятностью р <-„'- -1 с вероятностью 1-р. Мы хотим определить плотную верхнюю границу вероятности того, что сумма от Х больше, чем нуль.
Так как р<1/2, то сумма будет иметь отрицательное значение для математического ожидания (средиего), следовательно, будем искать вероятность верхнего .' ':- хвоста. При 5„, = О в (2.1.193) имеем й уо',» су! !=1 >р„(уо) = Е(е>"~)= Ь (2.1. 200) '1 ехр где сУ означает одну из (Уь которые одинаково распределены. Теперь разло>кив; характеристическую функцию для сУ в ряд Тейлора. Г '3 >!>н~ — ~ = 1+ — Е(сУ) — — Е(сУ')+ )> Е(сУ') —...
(2.1.201) > Так как Е(сУ) = 0 и Е(сУ') = 1, (2.1.201) упрощается: Г '1, ' ( ) (у'о ! о' 1 (2. 1. 202) > '~ 4п) 2п п где Л(о, и)/п означает остаток. Заметим, что Л(о,п)/и прибли>кается к нулю, когда и — » оэ, Подставив (2.1.202) в (2.1.200), получим характеристическую функцию 1'в виде ! ч,(у )= — —.
Л(о,и)1 ! 2п п (2. 1. 203) ! Взяв натуральный логарифм от (2.1.203), получим !и !>,(Уо) =п!и!1- — + Л(о,п) ! (2 1.204) 2п п ! Для малых значений х функцию !п(1+х) можно представить степенным рядом !п(1+х)= х — —,! х>+! х' —.... .. Подставив это представление в (2 1,204), получим ! о> Л(о, п) 1 ( о"- Л(о, п)1 2п и 2~, 2и и 1п у,(уо) = и (2.1.205) Окончательно, когда определим предел при и — »сс, (2.1.205) приводит к !пп!в!!>„(уо) = — о /2, нли, что эквивалентно, !!и>>!! (уо)= е" (2.
1. 206) Но это как раз характеристическая функция гауссовской случайной величины с нулевым средним и единичной дисперсией. Таким образом, мы имеем важный результат: ФПВ суммы статистически независимых и одинаково распределенных случайных величин с ограниченным средним и дисперсией приближается к гауссовской при и — »х Этот результат известен как центральная предельная теорема.
Хотя мы предположили, что случайные величины в сумме распределены одинаково, это предположение можно ослабить при условии, что определенные дополнительные и ( у = —',»„и,. (2.1.1 99) ! Так как каждое слагаемое суммы имеет нулевое среднее и единичную дисперсию,! "1 нормированная (множителем 1/>/п) величина У имеет нулевое среднее и единичную~ ~ дисперсию. Мы хотим определить ИФР для Ув пределе, когда п — » со Характеристическая функция У равна ограничения все же накладываются на свойства случайных суммируемых величин. Имеегся одна разновидность теоремы, например когда отказываются от предположения об одинаковом распределении случайных величин в пользу условия, накладываемого на третий абсолютный момент случайных величин суммы.
Для обсуждения этой и других версий центральной предельной теоремы читатель отсылается к книге Крамера (1946). г ''; Стационарные случайные процессы, Как указано выше, случайные величины Х,, ~ = 1, 2, ..., и, полученные из случайного процесса Х(!) для ряда моментов времени гь ~„при некотором и, характеризуется статистически СФПВ р(хл,х, ..х,). Рассмотрим другой ряд и случайных величин Х,„, =- Х(г, +~~ г'=1,2,, и, где произвольный временной сдвиг, одинаковый для всех 1.
Эти случайные величины за 2,2. СЛУЧАЙНЫЕ ПРОЦЕССЫ Множество случайных явлений, которые имеют место в природе, являются функциями времени. Например, метеорологические явления. такие как случайные флуктуации температуры воздуха и давления воздуха, являются функциями времени. Напряжение теплового шума, создаваемое в резисторах электронных устройств, таких как радиоприемник„также является функцией времени. Подобным образом, сигнал на выходе источника, который выдает информацию, характеризуется как случайный си~пал.
ченяющнйся во времени. Звуковой сигнал который передается в телефонном канале, является примером такого сигнала. Все это примеры стохастических (случайных) процессов При изучении систем цифровой связи мы используем случайные процессы для характеристики и моделирования сигналов, создаваемых источниками информации, для характеристики каналов связи, используемых для передачи информации, для : '-;";: ' характеристики шумов, создаваемых в приемнике, и при синтезе оптимального приемника для обработки принимаемого случайного сигнала В заданный момент времени г величина случайного процесса, будь то величина :::;: 1' напряжения шума в резисторе или амплитуда сигнала, создаваемого звуковым источником, является случайной величиной.
Таким образом, мы можем рассматривать '!::: алучайньш процесс как случайную величину; индексируемую параметром г Мы будем ,: '-:.- обозначать такой процесс Х(~). Вообще говоря, параметр ~ непрерывен, в то время как Х макет быть или непрерывным или дискретным, в зависимости от характеристик источника, который создает случайный процесс Шумовое напряжение, создаваемое единственным резисгором, нли сообщение, выдаваемое источником информации, представляет единственную реализацию случайного яроцесса. Поэтому их называют выборочяой функцией случайного процесса.
Ряд всех возможных выборочных функций, например ряд всех шумовых напряжений, создаваемых резисторами, определяют ансамбль выборочных функций или, что эквивалентно, случайный процесс Х(~). Вообще говоря, число выборочных функций (реализаций) в ансамбле может быть очень большим; часто оно бесконечно Определяя случайный процесс ХЯ как ансамбль реализаций, мы можем рассмотреть 1иачения процесса в ряде моментов времени 1ь ~ь гь . „г„, где и — положительное целое число. В общем, случайные величины Х, = ХИ, ! = 1, 2, ... и характеризуются ."~ ',- . статистически их СФПВ р(х,,х,,,х, ).
Все вероятностные соотношения, определенные в разд. 2.1 для многомерных случайных величин, распространяются на случайные величины Л;, 1=1,2, и. которая определяется так и!~,.~)=Я(Х, — 1~ЩХ, -~!гЩ=ФЦ,~,«- 1~) 1~), <гг21 где лг(б) и т(«~) — средние для Хи и Ха соответственно. Если процесс стационарен, функция автоковариации упрощается и зависит только от т= б — 1~.