Ульянов (новое издание) (1115355), страница 9
Текст из файла (страница 9)
Так что полученный ряд тоже абсолютно сходится и суммировать егоможно в любом порядке (факт доказывается в курсе мат. анализа и ещё попадётсявпереди).Теперь остаётся в качестве множеств D и T взять множества A и B, предварительно заметив, что они представимы в видеA = {ω : (X1 (ω), X2 (ω), . . . , Xk (ω)) ∈ f −1 (a)},B = {ω : (Y1 (ω), Y2 (ω), . . . , Yn (ω)) ∈ g −1 (b)}.Всё, теперь остаётся воспользоваться обоснованным выше фактом и получить:P(AB) = P(X ∈ f −1 (a), Y ∈ g −1 (b)) = P(X ∈ f −1 (a)) P(Y ∈ g −1 (b)) = P(A) P(B).354.2Математическое ожидание дискретной случайной величиныПусть пространство элементарных исходов Ω — не более чем счётное, σ-алгебрасобытий F — множество всех подмножеств Ω, P — вероятность, то есть, задано вероятностное пространство (Ω,F ,P), в котором определена случайная величина X(ω).Определение 4.2.
Математическим ожиданием или средним случайнойвеличины X(ω) называется сумма рядаXX(ω) P({ω}),ω∈Ωпри условии абсолютной его сходимости. Обозначается EX.Замечание. Абсолютная сходимость понадобится далее в доказательствах некоторых свойств мат.
ожидания. Это во-первых. Во-вторых, в каком порядке по Ω надосуммировать — нигде не указано и в общем случае как-то этот порядок не изобрести.Так что если ряд из определения сходится условно, то оно попросту некорректно,потому что по теореме Римана (которая присутствует в курсе мат. анализа) можнотак переставить ω в сумме, что ряд сойдётся к любому наперёд заданному вещественному числу. Ну а абсолютно сходящийся ряд имеет единственный предел, такчто мат. ожидание для каждой случайной величины единственно.4.2.1Свойства математического ожидания1◦ .
Мат. ожидание константы ей же и равно. X(ω) = C(константа) =⇒ EX = C.Доказательство. Потребуется всего-то счётная или конечная аддитивность вероятности для суммирования вероятностей попарно несовместных событий вида {ω}:Ã!XX[EX =X(ω) P({ω}) = C ·P({ω}) = C · Pω = C · P(Ω) = C.ω∈Ωω∈Ωω∈ΩХотя утверждение само по себе совершенно очевидное: среднее от константы!Далее возникнет сложение и перемножение случайных величин. Если возникаетвопрос, по какому такому праву произведение и сумма случайных величин являетсяслучайной величиной, его нужно устранить с помощью замечания на с.30.2◦ . Пусть в нашем вероятностном пространстве имеется две случайных величины X и Y , тогда если мат. ожидание обеих существует, то существует мат.ожидание их суммы и равно оно сумме их мат.
ожиданий. То есть,∃ EX, ∃ EY =⇒ ∃ E(X + Y ) = EX + EY.Доказательство. Факт попросту повторяет известное свойство абсолютно сходящихся рядов, а переносить сюда выкладки из математического анализа совершенноизлишне. Так что доказательство очевидно.3◦ . Умножение на константу из-под знака мат. ожидания можно выносить:E(C · X) = C · EX.36Доказательство. Как известно, из-под знака суммирования для абсолютно сходящегося ряда константу можно вынести.Замечание. Раз уж умножение на константу и сложение из-под знака мат.
ожидания можно выносить, то можно выносить и вычитание.4◦ . Пусть набор значений (x1 , x2 , . . .) с набором вероятностей (p1 , p2 , . . .) — распределение случайной величины X (здесь везде символы стоят для случая, когда Xимеет бесконечное количество значений, но для конечного случая всё проделывается точно так же). ТогдаEX =∞Xxk pk .k=1Доказательство. Пусть событие Ai состоит в том, что X приняла значение xi . Тоесть, Ai = {ω : X(ω) = xi }. Заметим, что P(Ai ) = pi по определению распределения.Остаётся провести простое преобразование ряда мат. ожидания:EX ==Xω∈Ω∞Xi=1∗X(ω) P(ω) =xiXω∈Ai∞ XXX(ω) P(ω) =i=1 ω∈Ai∞XP(ω) =xi P(ω)i=1 ω∈Aixi P(Ai ) =i=1∞ XX∞Xxi pi ,i=1помеченный ∗ переход отличен тем, что при нём происходит перегруппировка слагаемых при суммировании.
Поскольку ряд сходится абсолютно, на сумму его этоникак не влияет.Замечание. Особенность и отличие этого свойства от определения в том, что исходное вероятностное пространство бесследно исчезло. Осталось только распределение.А в определении требуется знать X как функцию ω и P как функцию, заданнуюна элементах класса событий. Часто речь будет заходить о случайной величине, еёраспределении и мат. ожидании, но ни слова не будет о вероятностном пространстве,так как распределение случайной величины само по себе может нести достаточноедля задачи количество информации.Замечание.
Мат. ожидание индикатора IA равно вероятности его события P(A):EIA = 1 · P(A) + 0 · P(A) = P(A).5◦ . Пусть g : R → R — измеримое отображение (что это значит, объясняется нас.60). Тогда g(X) — случайная величина иEg(X) =∞Xg(xi )pi .i=1Опять символы стоят такие, будто X имеет бесконечное количество значений иопять в конечном случае всё точно так же.37Доказательство. Доказательство повторяет доказательство предыдущего свойства с незначительными изменениями. Снова вводим события Ai = {ω : X(ω) = xi },снова P(Ai ) = pi и снова распишем мат. ожидание по определению:Eg(X) ==Xω∈Ω∞Xg(X(ω)) P(ω) =g(xi )i=1∞ XXg(X(ω)) P(ω) =i=1 ω∈Ai∞XXP(ω) =ω∈Aig(xi ) P(Ai ) =i=1∞ XXg(xi ) P(ω)i=1 ω∈Ai∞Xg(xi )pi .i=16◦ (Мультипликативность мат.
ожидания). Пусть заданы две независимыхслучайных величины X и Y , и у обеих существует мат. ожидание. Тогда существует мат. ожидание произведения, равное произведению мат. ожиданий исходных случайных величин:X, Y — независимы и ∃ EX, ∃ EY =⇒ ∃ E(XY ) = EXEY.Доказательство. Пусть X принимает значения a1 , a2 , a3 , . .
. на исходах ω из событий A1 , A2 , A3 , . . ., а Y — значения b1 , b2 , b3 , . . . на событиях B1 , B2 , B3 , . . .. Далее виндексах суммирования будет стоять бесконечность, будто X и Y принимают бесконечное количество значений. Для конечного случая всё точно так же — изменениячисто символические, для случая с континуумом значений все совсем иначе (см.с.??). Итак:EXEY =♠=∞Xai P(Ai )i=1∞Xi,j=1∞Xbj P(Bj ) =j=1ai bi P(Ai Bi ) =∞ X∞X♣ai P(Ai )bj P(Bj ) =i=1 j=1∞XXX(ω)Y (ω) P(ω) =i,j=1 ω∈Ai Bj∞ X∞Xai bi P(Ai Bj )i=1 j=1XX(ω)Y (ω) P(ω) = EXY.ω∈ΩПереход ♣ — это независимость X и Y .
А вот с ♠ сложней: до него суммированиевелось сначала по j, а затем по i, после него порядок произвольный. Так поступатьможно, потому что каждый член нового ряда — это произведение соответствующихчленов двух абсолютно сходящихся рядов. Тогда полученный ряд тоже сходитсяабсолютно, и в каком порядке его суммировать — совершенно неважно. В курсемат.
анализа этот вопрос разобран под заголовком «Элементарная теория двойныхи повторных рядов».Математическое ожидание — это не то же самое, что медиана, причём разницаочень существенна. Медиана — это значение, слева и справа от которого (на вещественной оси) лежит одинаковое количество значений случайной величины. В СШАв 1992 году медиана доходов обладателей работающих домашних хозяйств составилапримерно 31000$, в то время как формула мат.
ожидания давала 40000$. 9000$ —это существенная разница. А вообще, за словом «среднее» может скрываться ещёчто-нибудь.Итак, смысл мат. ожидания — это среднее случайной величины. На практике этостанет полезным с появлением Закона больших чисел (а точнее, на с.47) плюс егоможно применять как критерий сравнения некоторых сложных объектов. Например,доходности некоторого финансового инструмента. Учебная (не надо восприниматьнаписанное ниже как руководство к действию, нужно ещё много обсудить) ситуация38такова: на рисунках имеется два графика — один для цены одного финансовогоинструмента, другой — для цены второго, время разбито по месяцам:Требуется выяснить, какой из них лучше подходит для вложений.Вводится такая характеристика, как относительная доходность в момент времениt, обозначается как Dt и определяется так:Dt =pt − pt−1, где pt — цена в момент времени t.pt−1Предположим, Dt известна в условные моменты времени t = 0, 5, .
. . , 500. Средняядоходность вычисляется какD0 + D5 + D10 + . . . + D490 + D495 + D500.101Среди D0 , D5 , . . . , D500 есть одинаковые — сгруппируем их и получим новый наборзначений d0 , d1 , . . . , dk с набором натуральных чисел n0 , n1 , . . . , nk , в котором ni (0 6i 6 k) — это число вхождений значения di в набор D0 , D5 , . . . , D500 , так что неминуемоn0 + n1 + . . . + nk = 101. Тогда выражение для средней доходности приводится квыражению мат.
ожидания Dt :D0 + D5 + . . . + D495 + D500n0n1nk−1nk= d0+ d1+ . . . + dk−1 ++ dk= EDt .101101101101101Хотя и не приведено вероятностное пространство, распределение Dt , которого здесьвполне достаточно, присутствует: в наборе n0 , n1 , . . . , nk все числа остаётся поделитьна 101 — и получатся соответствующие вероятности.Дальше выводы о том, какой из финансовых инструментов лучше всех подходитдля вложений, можно делать на основе обычного сравнения между собой вещественных чисел.
Например, мат. ожиданий доходностей.4.2.2Пример случайной величины, не имеющей мат. ожиданияПример. Пришло время раскрыть Петербургский Парадокс. Проблема была в том,что сделать игру справедливой посредством предварительных расчётов между игроками нельзя. И вот почему: посчитаем выигрыш подбрасывающего, который будемсчитать случайной величиной S: он получает 2n рублей, если первый герб выпадает на n-том шаге.
Элементарных исходов здесь счётное число, вероятность того,что первый герб выпадет на n-том шаге, равна 2−n . Вероятностное пространствоподробно описано на с.11. Считаем мат. ожидание S:ES =XS(ω) P({ω}) =∞Xi=1ω∈Ω2n 2−n =∞X1.i=1Этот ряд не сходится абсолютно. Строго говоря, мат. ожидания у этой случайнойвеличины не существует. А вообще, оно кажется невообразимо большим, а точнейего не ограничить никаким положительным числом, как и средний выигрыш подбрасывающего. А поскольку передать перед игрой второму игроку неограниченноеколичество рублей для подбрасывающего не представляется возможным, сделатьигру справедливой таким способом нельзя.Это был пример случайной величины, не имеющей мат.