В.И.Тихонов Статистическая радиотехника (2-е издание, 1982) (1092037), страница 10
Текст из файла (страница 10)
2. Рассмотрим положительную случайную величину 11 = ) $ — с )" и, положив в (26) а = з", получим Р(1$ с1л~зв)(з-пЯ(1з с1в) Р ( 1 $ — с ! ~ и) ('з-" М ( ~ $ — с1в). Это неравенство Бьензле-Чебышева. Положив в = т; дем к (24). Перечислим основные свойства дисперсии. 1. Дисперсия неотрипательна Ве ) О, причем 01 = ко тогда, когда $ = с, где с — постоянная~ О, = О. (1.3.27) ил=2, при- О тогда и толь- (1.3.28)— То, что дисперсия неотрицательна, следует из ее определения. По.
СКОЛЬКУ ($ — ПГ1)а- ) О, тО М ((й — т1)з) ~ О. Пуетъ Р ($ = а) = 1, тогда М (й) = те в, М Да) ой и 01 = М (йа) — т!1 О; Если 01 = М ((5 — те)з-) . О, то $ =. те в вероятноетью единица, г. е. Р (й ~ гпа) =' О. (1.3.29) Действительно, пусть это равенство не выполняется. Тогда можно найти такую величину е ) О, что Р (1'$ — т1 )) е)= ~ р(х) !(х*ф О. ~з т1 ~)з Но 01 = ~ (х гп )ар(х)с(х~ ~ (х и! )в Р(х) г(х~ (с-т! 1эт ~ и' ( Р (х) дх ) О, 1»- жь ~) е что неверно.
Поэтому должно быть вправедливо равенство (29). Таким образом, если М((Ц вЂ” с)') = О, то %=в. (1.3.30) 2. 0,1 = с' 01, 01+, 01. (1.3.31) Эти свойства непосредственно следуют из определения дисперсии (22). 3. Если случайные величины й! и $з не коррелироваиы (с. 61), то дисперсия суммы (разностн) этих величин равна сумме дисперсий: 0ь ы = 0ь + 0йм (1.3.32) Действительно, полагая в формуле (22) $ = $! ~ $„имеем 0Ь .1.
- М Ж ~ Вз)') — (М Й! ~= В ))'= М Й!) — ига, + + М Щ вЂ” тф, ~ 2М (($! — т1,) (Ц вЂ” и!1,)) =.01, + 01, ~ ~ 2М (($! — т1,) ($з — т1,)). (1.3,33) Случайные величины $! и $е называются некоррелироеанными, если М ((с — пг1,) ($з — т1,)) = О. (1.3.34) При выполнении этого условия из (33) следует свойство (32) аддитивности диеперсий некоррелированных случайных величин.
Согласно (9) равенство (34) заведомо выполняется'для независимых случайных величин еь! и еьз. Пример 1.3.1. Производится и иезависимыд измерений некоторой физичес-. кой величины, результат каждого измерения есть случайная величина $! е ма. тематическим ожиданием и! н авеперсней В, не зависящими от 1. Нужно найти математическое ожидание и дисперсию среднего арифметичесиого 1 ° (1И) Х йг, а также етиоентельиую потрешвоеть определения вреднего ариф.
! ! нетвчееково. 51 С учетом ааойстн математического ожидания находим 1 1 М(зй)= — Ч)' М(4)= — ~~ т=т. в=! в=! (1.3.35) Математическое ожидание среднего арифметического незавнсамых и одннзко ных намерений соападает с математическим ожиданием отдельного измерения. Используя свойства дисперсии (31) н (32), получаем Относительная средняя кзадратичезкая погрешность определения среднего арифмегнческого равна оь )/Р„!М(зй) )/Рвт 1/й 6,1/й, (1.3.37) где 6! (/Рвт — относительное значение средней квадратической ошибки единичного измерения.
б)тсюдз видно, что точность намерений можно повысить за счет увеличения чнела замеров, В частности, прибором, имеющим относительную погрешность 61, можно производить измерения с меньшей относительной погрешностью бв, ( бв, если определять результат как среднее арифметическое нескольких незазнснмых замеров, Чтобы повысить точность измерений а дза раза, их число нужно увеличить в четыре раза и т. д.
Отметим, что неравенвтво Чебышева (24) для случайной величины зь принимает вид Р ((зь — т ( н е) = Р!ззй. Отсюда следует, что !1ш Р— ьв — т 1 й в=! (1.3.38) нли, что то же самое, — ')' яв — т 1 ~=! Игп Р <е =1, (1.3.39) Соотношения (38) и (39) извептны под названием закона больших чисел. Покажем, что низшие моменты имеют более важное значение, чем высшие. Для этого выразим правую часть формулы (1) через центральные моменты р, случайной величины 5. В большинстве практических случаев плотность вероятноати р (х) имеет наиболее су!цестнепные значения в интервале, расположенном около математического ожидания ты причем длина этого интервала имеет порядок о! = )/)л! (рис.
).8). Если в этом интервале функция вр (х) достаточно гладкая, то ее с необходимой степенью точности можно представить рядом Тейлора в окрестности точки твв ср (х) = ср (тс )+ ср' (тс ) (х — тз ) + (1/2) <р-" (т; ) х х (х — тз )'+ ... + (1/п1) ср<" < (тс ) (х — тз )" + ... Подетавив это разложение в (1) и учтя определение центральных моментов (12), получим М(ср(з)) = ср(тт)+(1/2)ср"(тз)Р1+ ... + (1/и!)<роо(т~)р„+ ... (1.3.40) Расписав левую часть этого равенства, имеем е'=М (з') — 23 М(з)+( $)', Приравняв производную по э нулю, находим э=те ~ ~ хр (х) с/хю зсп<в=Рз (1.3А4) Следовательно, математическое ожидание является наилучшей оценкой случайной величины по критерию минимума среднего квадрата ошибки, причем минимальное значение этой ошибки равно диалереии.
53 Если функция Ч< (х) изменяется в указанном интервале достаточно медленно, то в разложении можно ограничиться учетом лишь первых двух членов. При этом М (<р ($)) = т,р <ы — ср (те )+(1/2) ср'с (т4 ) Р1 . (1.3,41) Отсюда видно, что математическое ожидание доетаточно плавной функции от случайной величины прибли,.кенно определяетея математическим ожиданием и дисперсией; роль высших моментов убывает а увеличением их порядка. Воспользуемся полученным результатом (41) для приближенного вычисления дисперсии случайной величины ср (в). Полагая Й (х) = = срт (х), имеем /<" (х) = 2 ср'з (х) + 2 <р (х) ср" (х).
Применяя формулу (41) к /< (э), можем написать х М (Ср'(я)) — р'(т<)+(р" (тЗ)+р(т1) Чс'(тт)) Ре Согласно определению дисперсии (22) получим (ср2 ($)) т М сре (т$ ) + [срс (т~ ) + + ср (тс ) ср-" (тс )) Ра — (<р (т<< )+ (1/2) ср" (тэ ) Рь )' или, учитывая лишь члены о первой степенью Рм Рч <м ср' (тт ) Р1 . (1.3.42) Покажем роль математического ожидания и дисперсии с другой точки зрения. Предположим, что нужно найти такую оценку $ случайной величины $, которая минимизирует средний квадрат ошибки: е'=М Ц вЂ” $)2= ) (х — в)'р(х) с(х. (1.3.43) Вернемая к формулам (11) и (12), которые позволяют вычислить моменты (если они вуществуют), по известной плотности вероятности.
Можно указать плотности вероятности, р га1 для которых моменты не существуют. Например, для плотности вероятности Коши (1(п) !1/(1+х~)) не существуют моменты порядка т ~ 2. Предположим, Дгх1 что интересующие нас моменты сушествуют. Возникает вопрос (проблема моментов): нельзя ли по известным моментам однозначно восстановить плотлг Ю нозть вероятности.
Во многих случаях рвс. кз. Иллюстрапия ро ответнаданныйвопросявляется в прин- ципе положительным П,Й. Пувть гл„ч = 1, 2, „есть моменты некоторой функции распределения, каждый из которых конечен. Предположим, что ряд Хт,д'М абсолютно сходится при некотором д) О. Тогда г" (х) есть единственная функция распределения, обладающая моментами т„, т = 1, 2, ... Зто всегда выполняется для ограниченной случайной величины. допустим, что моменты существуют и однозначно определяют закон (функцию) распределения. Укажем конкретный путь получения закона распределения. Заметим, что моменты гп можно определить не только е помощью формулы (11), но и путем разложения характеривтичеакой функции в ряд Маклорена. Разлагая зкспоненту в выражении (1.2.15) в ряд Маклорена и беря затем математическое ожидание от каждого слагаемого, получаем Ф()д) — М «~ — $~(16)ч 1+ ~~,' ' (1д)т (! 3 45) (т О и=! дч,в ()з) (1.3.46) где Если интересующие нас моменты существуют, то формула (46) дает простой способ вычисления их путем дифференцирования характеристической функции.
При указанном условии справедливо и обратное, а именно по моментам можно восстановить характеристическую функцию согласно (45). Зная характеристическую функцию, находим плотность вероятности по формуле (1.2.23). Часто более результативным оказывается несколько другой путь определения характеристичеакой функции, базирующийся на разложении в ряд Маклорена не самой характеристической функции, а ее логарифма. Напомним, что для функции 1п (1+ г) ряд Маклорена имеет вид 1п (1 + г) = г — гЧ2 + га(3 — г94 + Заменяя 1 + г иа Ф (16), т. е. полагая г = Ф ()О) — 1, и используя (45), можем написать 54 г- ! Ф (1 О) = ~ —" (10)' — —,'~ — ' (10)Р + И 2 ч! р 1 р ! ,.
[ л р!р! ]'-... 3 р=! (1,3.47) Правая чаеть этого выражения представляет многочлен отноеительно 10. Совершая перестановки елагаемых в этом многочлене, его можно представить в виде еледующего ряда: 1п е(1 0) = „р — "(10). т! р 1 или Хр !р (1 6)=ехр У вЂ” ' (10)р т! р=! р (! цр — рр 2'ррр р ( ~ — ' р!р!'], 2 (1.3.49) где — 1 — Р а' !п2в 05) 1 р!О~ ~а=а (1.3.50) Коэффициенты х„ входящие в (48) и (49), называются кумулянтами или сгмиинвариантами т-го порядка. Очевидно, что кумулянт х2 есть полинам от моментов т„..., т, и, наоборот, момент т, есть полипом от кумулянтов х„..., х,. Приравнивая коэффициенты при одинаковых степенях 10 в правых частях выражений (47) и (48) и учитывая формулу (18), получаем х1 и!1р х2 т2 п21 )22 ~р х =т2 Зтр т,+2т2 р х,=т — Зт'2 — 4т, т + +12т! т,— 6т( =р — 3!22, (1.3,51) тр = х„т2 = х2+ хг, т, = х, + Зх, Х+ хр, т =х +Зх2+ 4х1 х +8х! х2+х(, (1.3.52) 22 — — х хрз!2 122((22~2, ур=х х, '=!221(222 — 3 (1,3,53) называютея еоответатвенно коэффициентами авиммгтрии и экецгсса (см.'е, 285).