Теория универа (555138), страница 8
Текст из файла (страница 8)
Если каждому возможному значению случайной величины Х соответствуетодно возможное значение случайной величины Y, то Y называют функцией случайного аргумента Х:Y = φ(X).Выясним, как найти закон распределения функции по известному закону распределенияаргумента.1) Пусть аргумент Х – дискретная случайная величина, причем различным значениям Х соответствуют различные значения Y.
Тогда вероятности соответствующих значений Х и Y равны.Пример 1. Ряд распределения для Х имеет вид: Хр56780,10,2 0,3 0,4Y47Найдем закон распределения функции Y = 2X² - 3:р690,1950,20,31250,4(при вычислении значений Y в формулу, задающую функцию, подставляются возможныезначения Х).2) Если разным значениям Х могут соответствовать одинаковые значения Y, то вероятностизначений аргумента, при которых функция принимает одно и то же значение, складываются.Пример 2. Ряд распределения для Х имеет вид: ХрНайдем закон распределения функции Y = X² - 2Х:010,1Y230,2 0,3 0,4-103р 0,2 0,4 0,4(так как Y = 0 при Х = 0 и Х = 2, то р(Y = 0) = р( Х = 0) + р(Х = 2) = 0,1 + 0,3 = 0,4 ).3) Если Х – непрерывная случайная величина, Y = φ(X), φ(x) – монотонная и дифференцируемаяфункция, а ψ(у) – функция, обратная к φ(х), то плотность распределения g(y) случайно функции(10.1)Y равна:g ( y ) = f (ψ ( y )) | ψ ′( y ) | . 1 − 23 1 y =⋅2223 3πy 3 (1 + y 3 )π (1 + y 3 ) Математическое ожидание функции одного случайного аргумента.Пусть Y = φ(X) – функция случайного аргумента Х, и требуется найти ее математическоеожидание, зная закон распределения Х.1) Если Х – дискретная случайная величина, тоПример 3.
f ( x ) =1, Y = x 3 . Тогда ψ ( у ) = 3 у , g ( y ) =π (1 + x 2 )138PDF created with FinePrint pdfFactory trial version http://www.fineprint.comnM (Y ) = M (ϕ ( x)) = ∑ ϕ ( xi ) p i .(10.2)i =1Пример 3. Найдем M(Y) для примера 1: M(Y) = 47·0,1 + 69·0,2 + 95·0,3 + 125·0,4 = 97.2) Если Х – непрерывная случайная величина, то M(Y) можно искать по-разному. Еслиизвестна плотность распределения g(y), тоM (Y ) =∞∫ yg ( y )dy.(10.3)−∞Если же g(y) найти сложно, то можно использовать известную плотность распределения f(x):∞M (Y ) = ∫ ϕ ( x) f ( x)dx.(10.4)−∞В частности, если все значения Х принадлежат промежутку (а, b), тоbM (Y ) = ∫ ϕ ( x) f ( x)dx.(10.4‘)аФункция двух случайных величин.
Распределение суммынезависимых слагаемых.Определение 10.2. Если каждой паре возможных значений случайных величин Х и Y соответствует одно возможное значение случайной величины Z, то Z называют функцией двухслучайных аргументов X и Y : Z = φ(X, Y).Рассмотрим в качестве такой функции сумму Х + Y. В некоторых случаях можно найти ее законраспределения, зная законы распределения слагаемых.1) Если X и Y – дискретные независимые случайные величины, то для определения законараспределения Z = Х + Y нужно найти все возможные значения Z и соответствующие имвероятности.Пример 4. Рассмотрим дискретные случайные величины X и Y, законы распределения которыхимеют вид:Х -213Y012р0,3р0,4 0,30,20,50,3Найдем возможные значения Z: -2 + 0 = -2 ( р = 0,3·0,2 = 0,06), -2 + 1 = -1 (р = 0,3·0,5 = 0,15),-2 + 2 = 0 (р = 0,3·0,3 = 0,09), 1 + 0 = 1 (р = 0,4·0,2 = 0,08), 1 + 1 = 2 (р = 0,4·0,5 = 0,2), 1 + 2 = 3(р = 0,4·0,3 = 0,12), 3 + 0 = 3 (р = 0,3·0,2 = 0,06), 3 + 1 = 4 (р = 0,3·0,5 = 0,15), 3 + 2 = 5 (р =0,3·0,3 = 0,09).
Сложив вероятности повторившегося дважды значения Z = 3, составим рядраспределения для Z:Z-2-10123р0,060,150,090,080,20,18450,150,093) Если X и Y – непрерывные независимые случайные величины, то, если плотность вероятности хотя бы одного из аргументов задана на (-∞, ∞) одной формулой, то плотность суммыg(z) можно найти по формуламg ( z) =∞∫−∞f 1 ( x) f 2 ( z − x)dx =∞∫ f ( z − y) f12( y )dy,−∞39PDF created with FinePrint pdfFactory trial version http://www.fineprint.com(10.5)где f1(x), f2(y) – плотности распределения слагаемых. Если возможные значения аргументовнеотрицательны, тоzz00g ( z ) = ∫ f 1 ( x) f 2 ( z − x)dx = ∫ f 1 ( z − y ) f 2 ( y )dy.(10.6)Замечание.
Плотность распределения суммы двух независимых случайных величин называюткомпозицией.Устойчивость нормального распределения.Определение 10.3. Закон распределения вероятностей называется устойчивым, если композиция таких законов есть тот же закон (возможно, отличающийся другими значениями параметров).В частности, свойством устойчивости обладает нормальный закон распределения: композициянормальных законов тоже имеет нормальное распределение, причем ее математическоеожидание и дисперсия равны суммам соответствующих характеристик слагаемых.40PDF created with FinePrint pdfFactory trial version http://www.fineprint.comЛекция 11.Нормальный закон распределения на плоскости. Линейная регрессия.
Линейнаякорреляция.Определение 11.1. Нормальным законом распределения на плоскости называют распределение вероятностей двумерной случайной величины (X, Y), еслиf ( x, y ) =12πσ xσ y 1 − rxy2−e ( x − a ) 2 ( y − a )2x − a1 y − a2112+− 2 rxyσx σy2 (1− rxy2 ) σ x2σ y2(11.1)Таким образом, нормальный закон на плоскости определяется 5 параметрами: а1, а2, σх, σу, rxy,где а1, а2 – математические ожидания, σх, σу – средние квадратические отклонения, rxy – коэффициент корреляции Х и Y.Предположим, что rxy = 0, то есть Х и Y некоррелированы.
Тогда из (11.1) получим: ( x −a ) 2 ( y − a )212+σ x2σ y2−0 ,51⋅e f ( x, y ) =2πσ xσ y=1σ x 2π−e( x − a1 ) 22σ x2⋅−1σ y 2π( y − a2 ) 2e2σ y2= f 1 ( x ) f 2 ( y ).Следовательно, из некоррелированности составляющих нормально распределенной двумернойслучайной величины следует их независимость, то есть для них понятия независимости инекоррелированности равносильны.Линейная регрессия.Пусть составляющие Х и Y двумерной случайной величины (Х, Y) зависимы. Будем считать, чтоодну из них можно приближенно представить как линейную функцию другой, напримерY ≈ g(Х) = α + βХ,(11.2)и определим параметры α и β с помощью метода наименьших квадратов.Определение 11.2.
Функция g(Х) = α + βХ называется наилучшим приближением Y в смыслеметода наименьших квадратов, если математическое ожидание М(Y - g(Х))2 принимаетнаименьшее возможное значение; функцию g(Х) называют среднеквадратической регрессиейY на Х.Теорема 11.1. Линейная средняя квадратическая регрессия Y на Х имеет вид:g( X ) = my + rσyσx( X − m x ),где m x = M ( X ), m y = M (Y ), σ x = D ( X ) , σ y = D(Y ) , r =(11.3)K xyσ xσ y- коэффициент корреляции Х иY.Доказательство.
Рассмотрим функциюF(α, β) = M(Y – α – βX)²(11.4)41PDF created with FinePrint pdfFactory trial version http://www.fineprint.comи преобразуем ее, учитывая соот-ношения M(X – mx) = M(Y – my) = 0, M((X – mx)(Y – my)) ==Kxy = rσxσy:F (α , β ) = σ y2 + β 2σ x2 − 2rσ xσ y β + (m y − α − βm x ) 2 .Найдем стационарные точки полученной функции, решив систему ∂F ∂α = −2(m y − α − φm x ) = 0, ∂F= 2 βσ x2 − 2rσ xσ y = 0. ∂βРешением системы будет β = rσyσx,α = m y − rσyσxmx .Можно проверить, что при этих значениях функция F(α, β) имеет минимум, что доказываетутверждение теоремы.Определение 11.3.
Коэффициент β = rпрямаяу − my = rσyσxσyназывается коэффициентом регрессии Y на Х, а( х − mx ) -σx(11.5)- прямой среднеквадратической регрессии Y на Х.Подставив координаты стационарной точки в равенство (11.4), можно найти минимальноезначение функции F(α, β), равное σ у2 (1 − r 2 ). Эта величина называется остаточной дисперсиейY относительно Х и характеризует величину ошибки, допускаемой при замене Y на g(Х) = α+βХ.При r = ±1 остаточная дисперсия равна 0, то есть равенство (11.2) является не приближенным,а точным.
Следовательно, при r = ±1 Y и Х связаны линейной функциональной зависимостью.Аналогично можно получить прямую среднеквадратической регрессии Х на Y:х − mх = rσх( у − mу )σу(11.6)и остаточную дисперсию Х относительно Y. При r = ±1 обе прямые регрессии совпадают.Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии– точку с координатами (тх, ту), называемую центром совместного распределения величинХ и Y.Линейная корреляция.Для двумерной случайной величины (Х, Y) можно ввести так называемое условное математическое ожидание Y при Х = х. Для дискретной случайной величины оно определяется какmM (Y | X = x) = ∑ y j p ( y j / x),(11.7)j =1для непрерывной случайной величины –M (Y | X = x) =∞∫ yψ ( y / x)dy .(11.8)−∞42PDF created with FinePrint pdfFactory trial version http://www.fineprint.comОпределение 11.4.
Функцией регрессии Y на Х называется условное математическое ожиданиеM( Y / x ) = f(x).Аналогично определяется условное математическое ожидание Х и функция регрессии Х на Y.Определение 11.5. Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что Х и Yсвязаны линейной корреляционной зависимостью.При этом графики линейных функций регрессии являются прямыми линиями, причем можнодоказать, что эти линии совпадают с прямыми среднеквадратической регрессии.Теорема 11.2. Если двумерная случайная величина (Х, Y) распределена нормально, то Х и Yсвязаны линейной корреляционной зависимостью.f ( x, y ) ,Доказательство.
Найдем условный закон распределения Y при Х = х ψ ( у / х) =f 1 ( x) используя формулу двумерной плотности вероятности нормального распределения (11.1) иформулу плотности вероятности Х:f1 ( x) =1σ x 2πe−( x − a1 ) 2.2σ x2x − a1y − a2, v=Сделаем замену u =. Тогда ψ ( y / x ) =σxσy=1σ y 1 − r 2 2πe σ y − a2 + r y ( x − a1 ) σx−2σ 2y (1− r 2 )(11.9)12π σ y−e( v − ru ) 22 (1− r 2 )=2.
Полученное распределение является нормальным, а его мате-матическое ожидание M (Y / x) = a 2 + rσy( x − a1 ) есть функция регрессии Y на Х (см. опредеσxление 11.4)). Аналогично можно получить функцию регрессии Х на Y:M ( Х / у ) = a1 + rσх( у − a2 ) .σуОбе функции регрессии линейны, поэтому корреляция между Х и Y линейна, что и требовалосьдоказать. При этом уравнения прямых регрессии имеют виду − а2 = rσyσx( х − а1 ) ,х − а1 = rσх( у − а2 ) ,σуто есть совпадают с уравнениями прямых среднеквадратической регрессии (см. формулы(11.5), (11.6)).43PDF created with FinePrint pdfFactory trial version http://www.fineprint.comЛекция 12.Распределения «хи-квадрат», Стьюдента и Фишера. Связь этих распределений с нормальным распределением.Рассмотрим некоторые распределения, связанные с нормальным и широко применяющиеся вматематической статистике.Распределение «хи-квадрат».Пусть имеется несколько нормированных нормально распределенных случайных величин: Х1,Х2,…, Хп (ai = 0, σi = 1).