Раздаточные материалы, страница 2
Описание файла
PDF-файл из архива "Раздаточные материалы", который расположен в категории "". Всё это находится в предмете "теория вероятностей и математическая статистика" из 6 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 2 страницы из PDF
Пуассоновская случайная величина x{0,1,2,3…}Pn (m) =λmm!e −λ , λ > 0⎧1 p ⎫⎬p + q =1⎩0 q ⎭3. Бернуллиевая случайная величина x ⎨Pn (k ) = C nk p k q n − k⎧a1 , a 2 , ... , a n⎫⎪4. Равномерное распределение p ⎪⎨1⎬⎪⎩ p1 = p 2 = ... = p n = n ⎪⎭Непрерывные случайные величины (НСВ).1. Равномерное распределение⎧ 1, x ∈ [ a, b ]⎪f ( x) = ⎨ b − a⎪⎩0,x ∉ [ a, b]dP (c < x < d ) = ∫ f ( x )dx =cf(х)S=1d −cb−ax<a⎧0,x⎪x − a⎪F ( x ) = ∫ f (t )dt = ⎨, x ∈ [ a, b]−ba−∞⎪x>b⎪⎩1,aF(х)babх12. Треугольное распределение Симпсона⎧1 ⎛x⎞x ∈ (- a, a )⎪ ⎜⎜1 − ⎟⎟,f (x) = ⎨ a ⎝a⎠⎪x ∉ (- a, a )⎩0хf(x)ха-а1F(x)0.5х-аа72⎧1 ⎛x⎞x ∈ (- a,0)⎪ ⎜1 + ⎟ ,⎪2 ⎝ a ⎠F (x ) = ⎨2x⎞⎪ 1⎛−−11⎪ 2 ⎜⎝ a ⎟⎠ , x ∈ (0, a )⎩3. Экспоненциальное (показательное) распределение.
Имеет важное значение в теории массовогообслуживания и теории надежности.x≤0⎧0,λ f(х)f ( x ) = ⎨ - λxex0λ,>⎩хx≤0⎧0,F(х)5/ λF (x ) = ⎨1- λx⎩1 - e , x > 0хλ - интенсивность.3. Нормальный закон распределения.( x − m )2−12f (x ) =e 2σ , σ>0σ 2πσ=1,m=0–нормальноестандартное(m-мат. ожидание)x−mt=такойподстановкойлюбоеσf(x)σ1σ2распределениеσ3нормальноеmраспределение приводится к стандартному.При фиксированном σ и изменяющемся m, кривая двигается вдоль Ох, не изменяя формы.При фиксированном m и изменяющемся σ (σ1<σ2<σ3), кривая вытягивается вдоль осиординат, но площадь фигуры под каждой кривой = 1.b⎛b−m⎞⎛a−m⎞P(a < x < b ) = ∫ f ( x )dx = Φ⎜⎟ − Φ⎜⎟⎝ σ ⎠⎝ σ ⎠aФункция Лапласа: F ( x ) =1⎛ x−m⎞+ Φ⎜⎟2⎝ σ ⎠Операции со случайными величинамиСо случайными величинами, рассмотренными на одном и том же интервале исходов опыта,можно обращаться как с обычными числами и функциями.X:a1 a2 … anp p1 p2 … pnY=ϕ(x)Нужно найти закон распределения СВ Y.
yk=ϕ(ak), где k=1,2,…,n.P(y=yk)=P(x=ak)=PkЕсли все значения СВ Y различны, то их надо проранжировать и указать соответствующиевероятности.Если СВ Y принимает совпадающие значения, то их надо объединить под общейвероятностью, равной сумме соответствующих вероятностей, а после в ранжированном видепривести в таблице.X={0,1,2,…,9}, P(x=k)=0.1, k=0,1,…,9, Y=x2, Z=(x-5)2.8X 0 1 2P 0.1 0.1 0.1Y 0 1 4Py 0.1 0.1 0.125 16 9ZPz 0.1 0.1 0.130.190.1440.1160.1150.1250.1060.1360.1170.1490.1480.1640.1990.1810.1160.1 0.1 0.1 0.1 0.1 0.1 0.1Закон распределения СВ Z:014916Pz 0.1 0.2 0.2 0.2 0.2250.1Бинарные операции (с несколькими величинами)СВ X,Y заданы в 1 опыте.Исход опытаE1 E2 … EnВероятность исхода P1 P2 … PnX1 X2 … XnXY1 Y2 … YnYZ1 Z2 … ZnZ=ϕ(XY)Сложнее, если СВ задана только своим распределением:a1 a2 … anР p1 p2 … pnb1 b2 … bnР g1 g2 … GnZ=X+YСВ Z принимает значения ak+bs, где ak=a1,a2,…,an; bs=b1,b2,…bm.Общее количество возможных значений СВ = m⋅n.P(Z=ak+bs)=P(X=ak, Y=bs)Для нахождения такой вероятности необходимо знать закон совместного распределения СВ Xи Y.Набор точек (ak,bs) вместе с вероятностями P(X=ak, Y=bs) называется совместнымраспределением СВ X и Y.
Обычно такое распределение задается таблицей.Определение закона распределения суммы СВ по законам распределения слагаемыхназывается композицией законов распределения.X \Ya1a2…ak…anPyb1P11P21…Pk1…Pn1g1b12P12P22………Pn2g2……………………bsP1sP2s…Pks…Pnsgs∑ Pk , s = 1……………………bmP1mP2m…Pkm…PnmgmPxP1P2…Pk…Pn1k,sНаиболее просто вероятности Pks находятся в случае независимости СВ X и Y. Две СВ X и Yназываются независимыми тогда и только тогда, когдаP(X=ak, Y=bs)=P(X=ak)⋅P(Y=bs)Pks=Pk⋅Ps9По известному закону распределения совместного распределения СВ X и Y могут бытьнайдены одномерные законы распределения СВ X и Y.P (Y = b1 ) = g1 =mnPk1 P ( X = a1 ) = P1 = ∑ P1s∑k =1s =1P ( X = ak ) = Pk =m∑Pkss =1Теорема . Если СВ Х,Y являются независимыми, то любые функции ϕ(Х) и ψ(У) от этихвеличин также являются независимыми.Распределение функции от случайной величиныХ – непрерывная СВ FX ( x), f x ( x)Y = ϕ ( x) .
По закону распределения СВ Х. Найти закон распределения СВ Y.Если СВ Х∈[х0 ,х1], то Y = ϕ ( x) ∈ [y0 ,y1].Предполагается, что функция ϕ(х) является однозначной и имеет обратную функцию q(y).P[x < X < x + dx ] = P( y < Y < y + dy )Воспользовавшись элементами вероятности:f x ( x)dx = f y ( y )dyf y ( y ) = f x ( x)dxdydq ( y ).dyЗакон распределения не меняется, если q(y) является линейной.fy(y)=fx(x).Многомерные законы распределения СВЧасто при решении практических задач мы имеем дело не с одной, а с совокупностьюнескольких случайных величин, которые взаимосвязаны.n-мерная случайная величина – совокупность n взаимосвязанных случайныхn x1,x2,…,xnвеличин. Для ее описания используются многомерные законы распределения.получим f y ( y ) = f x (q( y ))Двумерные функции распределенияX,YF(x,y)=P(X<x,Y<Y)Функция F(x,y) обладает свойствами, аналогичными свойствам одномерной функции:– не убывающая1.
x2≥x1 ⇒ F(x2,y)≥F(x1,y)– не отрицательнаяy2≥y1 ⇒ F(x,y2)≥F(x,y1)0≤F(x,y)≤ 12. F(∞,∞)= 1 F(-∞,-∞)=03. Fx(x)=P(X<x+=P(X<x,Y<∞)=F(x,∞)Fy(y)=P(Y<y)=P(X<∞,Y<y)=F(∞,y)f(x,y) – функция плотности вероятности совместного распределения величин x и y.d 2 F ( x, y )P( x < X < x + Δx, y < Y < y + Δy )f ( x, y ) ==dxdyΔx, ΔyΔx→0limΔy →0xF ( x, y ) =y∫ ∫ f ( x, y)dxdy−∞ −∞1. f(x,y)≥0+∞ +∞2.∫ ∫ f ( x, y)dxdy = 1 – условие нормировки−∞ −∞3. По известным двумерным находятся соответствующие одномерные10+∞f x ( x) =∫ f ( x, y)dy−∞P(α x < X < β x ,α y < Y < β y ) =+∞f y ( y) =∫ f ( x, y)dxβx β y∫α α∫ f ( x, y)dxdyxy−∞В случае статистической независимости СВ Х и УF(x,y)=Fx(x)⋅Fy(y)f(x,y)=fx(x)⋅fy(y)F(x,y)=Fx(x)⋅Fy(y/x)=Fx(x/y) – для условныхf(x,y)=fx(x) ⋅f(y/x)=fy(y) ⋅f(x/y)Раздел 4.
Числовые характеристики СВИсчерпывающие представления о СВ дает закон её распределения.Во многих задачах, особенно на заключительной стадии, возникает необходимость получить овеличине некоторое суммарное представление: центры группирования СВ – среднее значение илиматематическое ожидание, разброс СВ относительно её центра группирования.Эти числовые характеристики в сжатой форме отражают существенные особенностиизучаемого распределения.Математическое ожидание (МО)М(х), МО(х), mx, m⎧ n⎪ xi p i⎪ i =1M ( x) = ⎨ ∞⎪ xf ( x)dx⎪⎩− ∞∑n∑pi=1ДСВi =1∫НСВОсновные свойства МО:1.
М(х) СВ Х⇒Хmin≤М(х)≤Хmax2. М(С)=СМО постоянной величины есть величина постоянная3. М(Х±У)=М(Х) ±М(У)4. М(Х⋅У)=М(х) ⋅М(у) ⇒ М(Сх)=СМ(х) – МО произведения двух независимых СВ5. М(аХ+вУ)=аМ(Х)+вМ(У)6. М(Х-m)=0 – МО СВ Х от её МО.МО основных СВДискретные Случайные Величины1. Биноминальные СВМО(Х)=np2. Пуассоновские СВМО(Х)=λ3. Бернуллиевы СВМО(Х)=рa + a 2 + ... + a nMO( X ) = 14. Равномерно распред. СВnНепрерывные Случайные Величины1. Равномерно распределенная СВMO( X ) =2. Нормально распределенная СВMO(X)=mb+a211MO( X ) =3. Экспоненциально распределенная СВ1λДисперсия СВ1. R=Xmax-Xmin – размах СВ2. M(|X-m|) – среднее абсолютное отклонение СВ от центра группирования3.
M(X-m)2 – дисперсия – МО квадрата отклонения СВ от центра группированияM(X-m)2=D(X)=σ2=σx2=σ2(X)D( X ) = σ = СКО – среднеквадратическое отклонение (стандартное отклонение).⎧ n2ДСВpi = 1⎪ ( xi − m) p i⎪ i =1D( X ) = ⎨ ∞⎪ ( x − m) 2 f ( x)dxНСВ⎪⎩− ∞Основные свойства дисперсии:1. Для любой СВ Х: D(X)≥0. При Х=const D(X)≡0.2.
D(X)=M(X2)-M2(X)=M(X2-2mX-m2)3. D(cX)=c2D(X)4. D(X+c)=D(X)5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)В общем случае:D(X+Y)=M(X+Y-mx+y)2=M((X-mx)+(Y-my))2=M((X=mx)2+2(X-mx)(Y-my)+(Y-my)2)==D(X)+2M((X-mx)(Y-my))+D(Y). Второй член этого выражения называется корреляционныммоментом. mx+y=M(X)+M(Y)=mx+my. D(X)=M(X-mx)2.M((X-mx)(Y-my))=K(X,Y)=Kxy=cov(x,y) – ковариацияKxy/σxσy=ρxy – коэффициент корреляции6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)∑∑∫Дисперсия основных СВДСВ1. БиноминальныеD(X)=npq2. ПуассоновскиеD(X)=λ3. БернуллиевыD(X)=pqНСВ1. Равномерно распределенные2.
Нормально распределенные3. Экспоненциально распределенныеD(X)=(b-a)2/12D(X)= σ2D(X)=1/λ2Математическое ожидание и дисперсия суммы случайных величинX1,X2,…,Xn – независимые СВ с одинаковым законом распределения.M(Xk)=a D(Xk)=σ21 nX =X n – среднее арифметическоеn i =1∑σ2σСКО = σ( X ) =nnДругие числовые характеристики СВМоменты распределения делятся на начальные моменты, центральные и смешанные.1. Начальные моменты qго порядка (q=1,2,…): M(X1)=МОM (X ) = aD( X ) =12⎧ n qДСВ⎪ xi p i=1i⎪M (X q ) = ⎨ ∞⎪ x q f ( x)dxНСВ⎪⎩− ∞2.
Центральные моменты qго порядка: M((X-m)2)=D⎧ nqДСВ⎪ ( xi − m) p i=1i⎪M (( X − m) q ) = ⎨ ∞⎪ ( x − m) q f ( x)dx НСВ⎪⎩− ∞M(x-m)q=M(x)q-Cq1mM(x)q-1+ Cq2mM(x)q-2+…+(-1)qmqM(x-m)3= M(x)3-3mM(x)2+2m3M(x-m)2= M(x)2-m2=D(x)Центральные моменты 3го и 4го порядков используются для получения коэффициентовасимметрии и эксцесса (As, Ex), характеризующих особенности конкретного распределения.∑∫∑∫3As<0M ( x − m) 3⎛ x−m⎞As == M⎜⎟3σ⎝ σ ⎠Для нормального закона распределения As=0.Если As>0, то распределение имеетправостороннюю скошенность. При As<0 –левосторонняя скошенность.As>04M ( x − m) 4⎛ x−m⎞Ex =−3 = M⎜⎟ −34σ⎝ σ ⎠Эксцесс характеризует остро- илиплосковершинность исследуемого распределения поEx>0сравнению с нормальным распределением.НСВ:1.
Нормальное распределение: Ex=As=02. Равномерное распределение: As=0, Ex=-1,23. Экспоненциальное распределение: As=2,Ex=9.1 − 6 pqEx =npqEx<0Биноминальное: As =q− pnpq3. Смешанные моменты:Начальный смешанный момент порядка (k+s) системы 2х СВ (X+Y):∞ ∞M (X Y ) =ks∫ ∫xky s f ( x, y )dxdy−∞ −∞Центральный моменты порядка (k+s):∞ ∞M (( X − m x ) (Y − m y ) ) =ks∫−∞ −∫∞( x − mx)k( y − m y ) s f ( x, y )dxdyЦентральный смешанный момент второго порядка:Kxy=M((X-mx)(Y-my)) – корреляционный моментK XY= ρ x , y – коэффициент корреляцииD ( x) D( y )Мода ДСВ – значение СВ, имеющее максимальную вероятность.13Мода НСВ – значение СВ, соответствующее максимуму функции плотности вероятности f(x).Обозначение моды: m0, M0(x), mod(x).Медиана СВ Х (me, Me(x), med(x)) – значение СВ,для которого выполняется равенство:me meP(X<me)=P(X>me)F(me)=0,5.Медиана – это площадь, получаемая делениемфигуры пополам.В симметричном распределении m=m0=me.
Внесимметричном они не равны.Так как мода и медиана зависят от структуры распределения, их называют структурнымисредними.Медиана – это значение признака, который делит ранжированный ряд значений СВ на дверавных по объему группы. В свою очередь, внутри каждой группы могут быть найдены тезначения признака, которые делят группы на 4 равные части – квартиль.Ранжированный ряд значений СВ может быть поделен на 10 равных частей – децилей, на 100– центилей.Такие величины, делящие ранжированный ряд значений СВ на несколько равных частей,называются квантилями.Под p% квантилями понимаются такие значения признака в ранжированном ряду, которые небольше p% наблюдений.Предельные теоремы теории вероятностейДелятся на две группы: Закон Больших Чисел (ЗБЧ) и Центральная Предельная Теорема(ЦПТ).Закон Больших Чисел устанавливает связь между абстрактными моделями теориивероятностей и основными ее понятиями и средними значениями, полученными пристатистической обработке выборки ограниченного объема из генеральной совокупности.