3. Основы теории случайных процессов. Карлин (1971) (3. Основы теории случайных процессов. Карлин (1971).djvu), страница 6
Описание файла
DJVU-файл из архива "3. Основы теории случайных процессов. Карлин (1971).djvu", который расположен в категории "". Всё это находится в предмете "теория массового обслуживания (асвк)" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 6 - страница
в. Х п У обладают следуюшими свойстваии: Х положительна, т. е. Р(Х > 0) = 1, и имеет непрерывную плотность вероятности 1(х)) У прн фиксированном Х имеет равномерное распределение в (О, Х). Доказать, что если У н Х вЂ” У независимы, то )(х)=а'хв а», х>0, а>0. /'л, !. Элементы теории случайных процессов "15.
Пусть Х и У вЂ” независимые одинаково распределенные положительные с. в. с непрерывной плотностью распределения 1(х). Предположим, далее, что 0 = Х вЂ” У и У = пйп(Х, У) являются независимыми с. в. Показать, что ле х при к~О, 1(х) = О в противном случае, при некотором Х > О. Указание.
Показать сначала, что совместная плотность вероятности с. в. (/ и У имеет вид 1~ (и ) = 1 (о) 1(о + ! [ ). Затем показать, что частные распределения с. в. (/ и У равны соответственно Ю Ь (и) = У 1(1) / а — и) йа. Ь (о) 2 [1 — Р(о)[1(о), птах(0, и! где г" (о) ~ 1(2) йй.
Приравнивая произведение частных распределений сов- о местному распределению, получить соотношевие 1(+! [)=1(! [)[1-Р()) и с его помощью вывести требуемый результат. 1В. С. в. Х принимает значения й/и, /г = 1, 2, ..., н, каждое с вероятностью 1/и. Найти ее характеристическую функцию и предел последней при о-ьее.
Каков вид с. в,, которой соответствует предельная характеристическая функция? Ответ; (а) фо (/) = (! — еы) —. ы ! ! н ехр( — !и Ч) — ! ' (б) равномерно распределенная на (О,!). 17. Применив центральную предельную теорему к соответствующим пуассо. новским с. в., показать, что „чьтч на ! н.т и .— У.— = —. а е 19. Показать, что всякий случайный процесс с независимыми приращениями является марковским процессом. 20. Пусть А„Аь ..., А,— исходы некоторого эксперимента.
Пусть в~в вероятность исхода А~ (/ = О, 1, 2... г). Предположим, что эксперимент по. вторяется до тех пор, пока исход Ае не будет отмечен й раз. Пусть Х, — число 18. Показать, что суммы Зч = Х~ + .. + Х„независимых с. в. с нулевыми средними образу!от мартингал. Гл. Е Элементы теории случайных процессов 36 Прекрасным введением может служить учебник Гнеденко [21.
Другим полезным элементарным учебником является книга Парзена [3[, Классической монографией, посвященной теории случайных процессов, является книга Дуба [41. Ее можно считать обязательной для всех, занимающихся случайными процессами. Другой выдающейся монографией по теории случайных процессов является книга Дынкина Щ. ЛИТЕРАТУРА 1. Ф ел л е р В., Введение в теорито вероятностей и ее приложения, т. 1, «Мир», М., 1964. 2. Г н ед си к о Б. В., Курс теории вероятностей, Физматгиз, М., 1961, 3. Р а г ее и Е., Модегп РгоьаЫ11!у ТЬеогу апй Из Арр!1са11опз, Ц111еу, !чети Уог1г, 1960. 4.
лч у 6 лсж. Л., Вероятностные процессы, ИЛ, М., 1956. 6, хс ынк ин Е. Б., Марковские процессы, Физматгиз, М., 1963. Глава 2 МАРКОВСКИЕ ЦЕПИ й Ь ОПРЕДЕЛЕНИЯ Дискретная марковская цепь (Х ) представляет собой марковский случайный процесс, пространство состояний которого счетно или конечно, а множество индексов Т = (О, 1, 2,...). Мы можем говорить об Х„как об исходе и-го испытания.
Часто пространство состояний процесса удобно отождествить с множеством неотрицательных целых чисел (О, 1,2,...) и говорить, что Х„находится в состоянии й если Х„= эц Вероятность с. в. Хо ы попасть в состояние 1, если известно, что Х„находится в состоянии 1 (называемая одношаговой переходи, о-О! ной вероятностью), обозначается РВ, т. е. Рц' = Р (Хо+1 = 11 Хл = э).
В таком обозначении подчеркивается, что в общем случае переходные вероятности зависят не только от начального и конечного состояний, но и от момента осуществления перехода. Когда одношаговые переходные вероятности не зависят от временной переменной (т, е, от значения и), мы говорим, что марковский процесс обладает стационарными переходными вероятностями (см. й 3 гл. 1). Именно на этом классе марковских цепей мы и сосредоточим свое внимание. Итак, отметим, что Р;"~" — — Рине зависит от п и РО есть вероятность перехода из состояния э' в состояние 1 за одно испыта- ние.
Обычно вероятности РО объединяют в матрицу э оо Ры Роэ Роэ !о Рп 1 12 Р!3 Р„Рм Рья Рм Рго Рп Рм Рм которую называют марковской матрицей, или жатрицей нерекод- нык вероятностей марковской цепи. 38 Гл. 2, Марковские Чеки Б матрице Р (1+ 1)-я строка представляет собой распределение вероятностей с. в. Х +с при условии, что Х„= с'. Если число состояний конечно, то Р— конечная квадратная матрица, порядок которой (число строк) равен числу состояний. Очевидно, вероятности РО удовлетворяют следующим двум.
условиям; Рм)~О, ю', 1'=О, 1, 2, ..., ~с~ Р„ = 1, 1 = О, 1, 2, .... у-о Условие (1.3) отражает тот факт, что каждое испытание вызывает некоторый переход из состоянии в состояние. (Для удобства мы говорим о переходе и в том случае, когда состояние остается неизменным.) Процесс полностью определен, коль скоро заданы вероятности (1.1) и состояние (или, более общб, распределение вероятностей) с. в. Хо. Докажем это утверждение. Пусть Р(Хо = с) = рь Достаточно показать, как вычисляются вероятности Р(Хо=(о, Х, =(„Х,=Ц, ..., Х„=1„) (1.4) для любого конечного и, так как по формуле полной вероятности любые другие вероятности, касающиеся с.
в. Х...,, Хкм 1, < 1о «... 1м могут быть получены суммированием членов вида (1.4). По определению условной вероятности имеем Р(Хо= со~ Х, = со Х,=си ..., Х„= си) = = Р (Х„= 1„1 Хо = 1о, Х, = со ..., Х„, = 1„Д Х Х Р (Хо = (о, Х, = со ..., Х„, = с'„1). (1.5) Но по определению марковского процесса имеем Р(Х„= 1„~ Х,= со, Х, =си ..,, Х„, =с'„Д= =-Р(Х„=-с„1Х„1=(в Д= Р,, (1.6) Подстановка (1.6) в (15) дает Р (Хо = 1о, Х, = с,, ..., Х„= с'„) = =Рс„с с Р(Х,=со Х1=(м, Х„~ =1„Д. (1.7) Продолжая по индукции, получаем Р(Хо=.1о Х, =со ..., Х„=1„)=Рси и с Рсв,, си- '' ' ~со с Рсо ( Я) (1.2) (1.3) й 2. ПРИМЕРЫ МАРКОВСКИХ ПЕПЕИ Большое число физических, биологических и экономических явлений описываются марковскими цепями.
Ниже приводится несколько примеров. э" 2. Примерьс марковских Чеаей А. Пространственно однородные марковские цепи Пусть дискретная с. в. $ принимает неотрицательные целочисленные значения, причем Р5= 1)=по а,)О ц ~ ос=1. Пусть 2-1 ~ь $2, ..., ~„, ... представляют результаты независимых наблюдений с. в, $. Мы опишем две различные марковские цепи, связанные с последовательностью (че). В обоих случаях пространство состояний совпадает с множеством неотрицательных целых чисел.
(!) Определим процесс (Х, и = О, 1,2, ...), положив Х„= ~в (начальное значение Х, = $о задано). Матрица переходных вероятностей этого процесса имеет вид ао п1 о2 сев а, а, аа а, а„ а, а, ав аа а~ ае ов ая 0 ао а, а2 ав 0 0 ав а, ае (2.1) Если с. в. $ может принимать как положительные, так и отрицательные целочисленные значения, то возможные значения 21„для каждого и содержатся в множестве всех целых чисел.
В данном Тот факт, что у матрицы Р все строки одинаковы, означает, что с. в. Хам не зависит от с. в. Х„. (П) Другой важный класс марковских цепей возникает при РассмотРении послеловательных частичных сУмм 21„с. в, $ь т. е. Чв=$1+$2+ ... +$„, и=1, 2, Считаем по определению, что 21в = О. Процесс (Х = 21„), как не- трудно видеть, является марковским. Легко найти его матрицу пе- реходных вероятностей; именно: Р (Х„е, = 1 ~ Х„= с) = Р Я, + ...
+ ~„е, = 1 ) ~, + ... -~- х „= 1) = ( ас с, 1)с', =РВ...=!-с)=~ 10, 1<;. Здесь мы, очевидно, воспользовались независимостью $ь В дан- ном случае матрица Р имеет вид Гх. 2, Марковские цели случае пространство состояний удобнее отождествить со всеми целыми числами (а не преобразовывать в множество неотрицательных чисел), так как тогда матрица переходных вероятностей имеет более симметричную форму ... а , а, а, а, ао ... ... а , а , а, а, ао ... ...
а-о а, а, а, а, где Р(в=Ц=ам Ус=О, ~1, ~2, ..., н а,>0, ~ а„=1. о=- Б. Одномерные случайные блуждания При рассмотрении случайных блужданий состояние системы для наглядности интерпретируют как положение движущейся «частицы». Одномерное случайное блуждание представляет собой марковскую цепь, пространство состояний которой состоит из конечного или бесконечного множества целых чисел; если частица находится в состоянии ~', то за один шаг она может либо перейти в одно из своих соседних состояний (с — 1 или у + 1), либо остаться в состоянии с. Если пространством состояний служит множество неотрицательных целых чисел, то матрица переходных вероятностей случайного блуждания имеет вид го Ро а, г, р, О д, Ро (2,2) 0 су, г, р, 0 где р,>0, д,>0, г,>0 и су,+г,+р,=1, у=, 2, ... (1>1) ро~ О, го> О, го+ ро — — 1.
Числа суо ро г, имеют следующий смысл если Х„=-У, то при У>1 Р (Хе ы — — У + 1 ~ Х„= 1) = Рб Р (Х„.„, = с — 1 ~ Х„= 1) =- сУБ Р (Х„.„~ = У ! Х„= У) =- г,, изменения для У = 0 очевидны, 4! Э 2. Прп»1еры маркове«их цепед В пользу названия «случайное блуждание» для процесса такого типа говорит тот факт, что его реализация описывает путь «абсолютно пьяного» человека, делающего случайным образом шаг вперед или шаг назад. Капитал игрока, участвующего в серии партий азартной игры, часто описывают процессом случайного блуждания. Предположим, что игрок А, имеющий капитал й, играет с бесконечно богатым партнером, при этом вероятность того, что он выиграет партию и увеличит свой капитал на единицу, равна рю а вероятность того, что он проиграет и тем самым уменьшит свой капитал на единицу, равна е/д = 1 — рп(й)~1). Зависимость вероятностей выигрыша и проигрыша от /е отражает возможную зависимость условий игры от капитала.