1. Введение в теорию массового обслуживания. Гнеденко_ Коваленко (2-е изд) (1987) (1186154), страница 31
Текст из файла (страница 31)
» (16) Д о к а з а т е л ь с т в о совершенно тривиально: достаточно лишь применить теорему Смита (гл. 2). 4. Метод интегро-дифференциальных уравнений. В случае, если Е(1)=1, положим $,(2) 1; если же $,(2)=((, 1, г), положим Ь(г)=((, 1), $~(т)=г. В етом случае $1(1) — «дополнительная» компонента случайного процесса Е(2).
Рассмотрение процессов с дополнптельнымн компонентами широко используется в теории массового обслуживания; зти компоненты выбираются так, чтобы с их наличием процесс был марковским. Обозначим Еп(2, а) = Р(с«(2) = ((, 1), »1(2)(х). Объясним принцип вывода уравнений (1) — (3). Допустим, что РН (г, х) = 1 рп (2, у) ду» » 1!» комбинации зкспонент и(г) в ", достаточно заметить, что ( е "и (1) йр1 (г) = $1 (г + р). » 3. Эргодическая теорема для линейчатых процессов.
Определим ПМП Р(2) следуюнцим образом. Если ья(г)=1, то Р(2)=1; если»Е(1+0)=((, 1, О), то Р(1)=(1, 1), начиная с момента 2 до момента окончания операции, начавшейся в момент 2. В моменты разрыва доопределим т(2) по непрерывности справа. Итак, т(2) как бы следит за изменениями состояний $(2), но теряет зто свойство в интервалах, где происходят операции. Легко видеть, что Н,(2), ~аЯ, определенные по процессу $(2), имеют аналогичный смысл и для нового процесса: Н»(1) (Не($)) есть среднее число вхождений ч(г) в состояние ) ((1, ))) в интервале (О, 2).
Среднее время пребывания Р(г) в состоянии ) -1 т1 = )ч' 164 ГЛ. 3. НЕКОТОРЫЕ КЛАССЫ СЛУЧАЙНЫХ ПРОЦЕССОВ где ра(~, х) — непрерывно дифференцируемые функции. Тогда рв((, х)дх есть вероятность собзатия (Е,(Г)=(1, 1), х< $,(~)< < х + дх). Таким образом, при Л ~ О рп(~+ Л, х+ Л) дх = = Р Д,(г+ Л) = (1, 1), х+ Л<$,(~ + Л) <х+Л+дх). Событие, записанное в фигурных скобках, может произойти следующими взаимно исключающими способами: 1. х < $(1) <х+Ох; за время л не произошло ни одного спонтанного изменения состояния линейчатого процесса и операция не закончилась.
2. х< 3(()<х+Нх; $,(1) (1, 1), 1Ф),ивинтервале ((, т+Л) произошло спонтанное изменение от (1, 1) к (1, у); операция ие закончилась. 3. х < $ (Г) < х+ Ох; $, (() = (1, (); за время от Ф до 1+ Л произошло не менее двух спонтанных изменений. Учтя вероятности перечисленных событий, получим рл(1+ Л, х+ Л) с)х = = (1 — 1ЕЛ + о(Л)) рп (1, х) (Р~(х+ Л) Р~(х)) Их+ х'1 (х+ О) + АР (Хп()) Л+ о;(Л)) рп((, х) ' Их+ Р, (х) + ~~'"„о;(Л) рп(г, х) Нх, (17) где о;(Л), о;(Л) — символы бесконечно малых по сравнению с Л случайных величин. Равенство (17) можно переписать следующим образом: дп(г + Л, х+ Л) дх = (1 — ХеЛ -(- о(Л)) дп(1, х) Нх+ + Л "~~ Ха ()) дп (~, х) Их + о (Л) ~(х, (18) Мд если предположить, что оценки о;(Л) о;(Л) равномерны относительно 1, Л вЂ” О. После деления обеих частей (18) на Л дх и перегруппировки слагаемых получим ~ (Ы1+ Л х+ Л) — ЧЕ(Г х)) = 1 - — )ч)(рд(1, х)+ Х )ЕО)ВФ )+ о(1) (1О) 1ез Из (19) сразу следует (2), поскольку для непрерывно дифференцируемой функции ) (1, х) разностное отношение У(~ + Л, х + Л) ~(~, х)) сходится при Л вЂ” О к — + —.
1 д1 дг Вывод уравнения (1) аналогичен; требует объяснения лишь один пункт. Если $(с+Л)=у, то могло быть ь~(() =(1, 1, г). При 9 Зл. линейчхтые мАРковскпе пгоцвссы Ы5 этом за время Л должна была закончиться операция и процесс должен был перейти в состояние й Вероятность такого события составляет Рв (~) ~ Ря(г з) ((Р1(з + А) — Р~(г))/7~ (з)) Нг = о = Рп(1) ) рп(1, ) (Р~(з -) Л) — Р,(з)) д о Интеграл в правой части данного равенства в действительности распространяется лишь на интервал (О, г), так как г,,(8)~ =й Предположим, что Р,(г)>р(з)>0 прн любом х>0. Тогда с 1 -б чя (г, з) (...) ох ~( — ) Рл (1, з) (...) оз; 2 )П так как ряд ~ ~ Ри (г, з) оз сходится как сумма вероятностей ь1 несовместных событий, то требуемый предельный переход следует пз непрерывности Р~(з).
Ввиду монотонности по а можно затем положить а = О. Перейдем к уравнению (3). Имеем дп(г, О) Л + о(Л) = Р(ь,(г) = ((, )), $,(~) ~ Л), (20) Так как $,(г)<Л, то операция, происходящая в момент ~, началась в интервале (à — Ь, г). Это Возможно лишь в следующих случаях: 1) в данном интервале закончилась предыдущая операция, 2) в данном интервале началась операция вследствие спонтанного изменения состояния процесса. Дальнейшие рассуждения аналогичны описанным выше.
5. Линейчатые процессы с фиксированием остатка. Пусть $(~) — лннейчатый случайный процесс. Если $(Г)=(1, г, з), то по реализации $(з)„з > Г, можно восстановить момент 1+ (, когда заканчивается операция, длящаяся в момент г. Полон~им ((г) н назовем т(~) величиной перескока в момент й Случайньш процесс Ь(1), равный $(1) при $(Г)жХ, и равный Д,(Г), ((1)) в противном случае, является марковским. рассмотрение случайного процесса ь(Г) вместо ь(г) позволяет несколько упростить определения и символику. В самом деле, прн определении линейчатого марковского процесса был существен индекс В он определял, с какой вероятностью может закончиться операция за время й, если она уже продолжалась время з. В случае процесса ~(г) остаточное время фиксируется, т.
е. 1 несущественно. Дадим новое определение линейчатого марковского процесса (с фиксированием остатка). Множество состояний процесса есть 166 ГЛ. 3. НЕКОТОРЫЕ КЛАССЫ СЛУЧАЙНЫХ ПРОЦЕССОВ Х,(у(Х1 Х «' ), где Х„Х, — конечные или счетные множества, Х, т' .'«х' — множество пар (у, х), г — переменная, для которой допускаются любые полов(ительные значения. Значения 1 при уы Х,не входят в Х,. Прп -(У)=У(нХ, с вероятностью 1 — УчЛ+о(Л) выполняется равенство «(У+ Л) = У, с вероятностью У,„Л+ о(Л) — равенство з(У+ Л)=у ФУ, у ~ Х„с вероятностью УОЛВ((х)+о(Л) выполняется равенство $(»+Л)=(у, г), х<х, где уФХ,.
При этом У( = ХУ(у. При ь(У)=(У, х) с вероятностью 1 — )1Л+о(Л) имеем $(г+ Л) = (У, х — и,Л), где а, ~ 0 — постоянная, с вероятностью У«Л+о(Л) в момент»+О из интервала (г, «+Л) происходит переход $(у) в новое состояние, так что $(У+ Л) =(у, х — с«,6 — ««1(Л вЂ” О) ). Пусть теперь 6(» — О) =(1, О). Тогда с вероятностью р(1~ имеем $ (у) = у ы Хе с вероятностью р';"; В; (х) имеем з («) = (у, х), у ~ Х„ (1( где х(х. Наконец, доопределни $(у) в иоменты изменения состояния пе непрерывности справа. Заметим, что $(«) есть то же, что ь(г) предыдущего пункта; вторая компонента $(у) есть у(у), однако для единообразия мы будем обозначать ее «1(У), сохранив для первой, «дискретной» компоненты обозначение $,(у).
Определенный процесс «(у) назовем линейчатым марковским про(уессов с у(икеированным остатком. Отметим, что введение постоянных а; позволяет перейти от «временной» к «энергетической» интерпретации операций: ««1 есть скорость выполнения Операции при состоянии у дискретной компоненты, В;(х) — распределение величины работы, связанной с операцией, начинающейся в состоянии у. Если в любом случае а( 1, то величина работы превращается во время выполнения операции.
Заметим, что путем расширения множества состояний процесса можно было бы поставить В,(х) в аависимость от предыдущего нли последующего (как для ПМП) состояния процесса. При решении конкретных задач в случае необходимости читатель сможет сделать зто самостоятельно. 6. Дифференциальные уравнения.
Обозначим ру (у) = Р («. (1) = у) ру(у, х) = Р(Е»(у) = у, $1(г)(х), у«НХ,. Для данных функций, аналогично соответствующим характеристикам лппейчатого марковского процесса, выводится система интегро-дифференциальных уравнений, что и предлагается сделать читателю в качестве упражнения. Рассмотрим важнейший случай стацпонарного распределения: р,.(1)=рь р((у, х)=р((х). з 2.2.
линейчхтые мАРковские ЛРоцессы Пусть 11ЕХР ПРимем пРеДположениЯ: 21<с, а,~ с; 11ш зпр В; (х) < 1. (21) х1о 2 Им р =Р('зз(Л)=Л. Возможны следующие случаи: 1. $,(0) =~'; в интервале (О, Л) переходов нет. 2. 5,(0) = 1 М1; в интервале (О, А) происходит переход нз 1ву. 3. $(0)= (1, 2), 2 ( Л; в момент 2 происходит переход в 1.
4. В интервале (О, Л) происходит не менее двух событий. Вероятности осуществления этих случаев соответственно равны р,(1 — )1Л+о(Л)); р)ЕЛ+о(Л); )г1(а1Л)р(„'1; о(Л). Объяо. пения требует лишь последнее утверждение. Пусть 2 — момент спонтанного изменения состояния $,(1), 1'— следующий такой момент. Тогда прн любой информации о траектории процесса до момента 1 случайная величина 8' — 1 стохастически больше экспоненциальной величины с параметром с. Отс1ода, если з, (Т) — число спонтанных изменений в интервале (О, Т), то Мз,(Т) ( СТ.
Если теперь т — момент окончания операции, т' — следующий такой момент, то т' — т при любых дополнительных условиях на траекторию процесса до момента т стохастически больше случайной величины с функцией распределения Ф (2) = зпр В;(сг), имеющей по условию (21) положительное (не обязательно конечное) математическое ожидание. Отсюда для числа з(Т) окончаний операций в интервале (О, Т) имеем Мз(Т)(с1Т по свойству функции восстановления, Итак, интенсивность потока событий конечна (~с+ с,), Приравняв вероятности, относящиеся к моментам Л н О, получим р; = р, (1 — Л;Л + о(Л)) + р1()ч1Л + о(Л)) + Х Г1(а1Л) р(0+ о(Л). (22) Зтачих 1ИХ„ Отсюда )1;р; = ~з~ ),ир1 + ~~~~~ а1г', (0) рй . (23) 1ж~Х, " 1ЕХ, ™ Переход к пределу законен, поскольку из ($;(0) ~ Л) следует окончание операции в интервале (О, Л), откуда ч.', Р1(Л) < с1Л, (24) ; х, О другой стороны, г;(О) есть, по определению, значение параметра стационарного потока однородных событий, а именно моментов окончания операцпй при состоянии г дискретной компоненты.
168 ГЛ. 3. НККОТОРЫК КЛАССЫ СЛУЧАИНЫХ ПРОЦБССОВ Рассмотрим теперь событие Ц,(А)=у, в!(Л)<х). В момент О имеем: Соомтсе ььь(0) = ! и,л < $~(0) < х+ о!Л; в ннторвале (О, Л) спонтанных переходов нет (с ! (х + нзл)— — р,,(а!Л)) х Х (1 — "ь!Л + о(Л)) (Р!(, + о') — Рс(о')) Х Х (!'ОЛ + о (Л) ), г' =- 0 (Л) ьзь(0) = ! ы Хк в момонт Л вЂ” 0 проц- зоснел спонтанный пореход в у; и~(л— — О)+ н,Е < ~,(0) «л+ о;(Л вЂ” 0)+ + азе р;(и;Л)р!(! х Х П (х + о!о), 0 < о < Л еь(0) = !, з,(0) < а~л; в момент л — 0 произопсел переход в состовнпе (Л 3), а,е, з -.