2. Системы массового обслуживания. Матвеев_ Ушаков (1984) (2. Системы массового обслуживания. Матвеев_ Ушаков (1984).djvu), страница 3
Описание файла
DJVU-файл из архива "2. Системы массового обслуживания. Матвеев_ Ушаков (1984).djvu", который расположен в категории "". Всё это находится в предмете "теория массового обслуживания (асвк)" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 3 - страница
4.3. Для анализа СМО важно выявить взаимосвязь между характеристиками. При этом рассматривают — зависимости между различными числовыми характеристиками системы (например, формула Литтла, э 5); — совместные распределения различных характеристик системы; — совместные распределения характеристик в разные моменты времени.
5. Задачи теории массового обслуживания. Параметры и искомые характеристики СМО в общем случае — случайные процессы. Поэтому основные задачи и методы исследования СМО по своей сути вероятностные. Можно выделить несколько основных классов задач. 5.1. Выяснение условий существования стационарных распределений искомых характеристик. Как правило, используются критерии существования стационарных распределений соответствующих случайных процессов.
5.2. Нахождение значений определенных вероятностей, распределений вероятностей и их числовых характеристик. При этом, как правило, применяют аналитические методы теории вероятностей. 5.3. Опенивание характеристик СМО осуществляется при помощи статистических методов по реальным данным наблюдений за системой, либо по данным имитационного статистического моделирования. 5.4. Сравнение и оптимизация СМО по различным критериям за счет соответствующего выбора значений числовых параметров системы, законов их вероятностных распределений либо порядка обслуживания требований. 5.5. Исследование асимптотического поведения характеристик систем обслуживания при стремлении параметров к каким- либо граничным значениям. 6.
Примеры задания СМО и их основных характеристик. Вновь обратимся к примерам, приведенным в начале параграфа, н опишем возможные модели СМО для указанных ситуаций. Пример !. А)В)1)0 — однолинейная СМО без ожидания. 13 Потерянные требования могут образовывать поток повторных требований. Нас может интересовать вероятность потери первичного требования.
Здесь и далее способы задания потоков требований н обслуживания оставляем до 2 3. Пример 2. А1В(1л(пг — п-канальная СМО с пг местами для ожидания в очереди. Интерес представляет время ожида'ния начала обслуживания требования. П р и м е р 3. А (В ~ 1 — однолинейная СМО с ожиданием. Важнейшие характеристики: вероятность застать систему (взлетно-посадочную полосу) свободной и время ожидания начала обслуживания требования (самолета). П р и м е р 4.
А1В111пг — одноканальная СМО с пг+1 одиночным источником требований. Основная характеристика время пребывания требования в системе (время реакции системы) . П р и м е р 5. А ~ В ~ 1 — одноканальная СМО с ожиданием и циклическим обслуживанием в режиме разделения времени. Нас может интересовать виртуальное время пребывания требования в системе. $2. НЕКОТОРЫЕ ФАКТЫ ТЕОРИИ ВЕРОЯТНОСТЕИ Основные методы исследования СМΠ— методы теории ве- роятностей. Ниже приводятся некоторые, наиболее часто ис- пользуемые прн анализе СМО, факты теории вероятностей, вводятся применяемые в дальнейшем обозначения, понятия и их свойства. 1. Вероятностное пространство. Предполагается, что все случайные процессы, рассматриваемые при исследовании кон- кретной системы массового обслуживания, заданы на общем вероятностном пространстве (ьх, $, Р).
2. Случайные величины, их представление, свойства. Особен- ность случайных величин, описывающих параметры и основные характеристики СМО, — их неотрицательность. Это определяет некоторую специфику применяемых вероятностных методов. 2.1. Для неотрицательной случайной величины а, а: (й, $)-~(Н»., В) функция распределения А(х) =Р(а(х) принимает нулевое значение для отрицательных значений х. В дальнейшем зто всегда подразумевается и не указывается явно. Математическое ожидание сл.в.
а будем записывать Ма = ) хг(А (х). о Если д(х) — борелевская функция, то Мд (а) = ) Р (х) г(А (х) . о 14 О свойствах интеграла Стилтьес, стоящего справа, см. Приложение, 5 2. Распределение сл.в. полностью определяется преобразованием Лапласа — Стнлтьеса (ПЛС) а(з) =- Мехр( — 'за) — — 1 ехр( — зх)йА(х), о которое широко используется при анализе СМО. О свойствах ПЛС см. Приложение, $ 3. Отметим здесь лишь следующие свойства. Математическое ожидание и дисперсия случайной величины а определяются дифференцированием ее ПЛС по формулам Ма= — а'(0), Ра=а" (0) — (Ма)о.
Моменты любого целого порядка также определяются дифференцированием по формулам Ма" = ( — 1) "аьо(0). Если Ь вЂ” целочисленная сл.в., то ее распределение вероятностей (Р(Е=Й), А=О, 1, ...) полностью определяется производящей функцией Е (г) = Мг' = ~) Р (Е = й) г". о=о Заметим, что.математическое ожидание и дисперсия сл.в. определяются формулами МЕ=Е'(!), РЕ=Е" (1) +МА(1 — МЕ). В Приложении, $1, для наиболее употребительных при анализе СМО случайных величин приведены: распределения сл.в., их представления, основные характеристики, некоторые свойства.
2.2. Особую роль при исследовании СМО играют случайные величины с показательным распределением. Во многом это связано со следующим замечательным свойством. Л е м и а !. Если а — случайная величина с показательным распределением Р(а(х) = ! — е-', то Р(а>1+т!а>т) =Р(а>!), !>О, (1) для любой неотрицательной случайной величины т, независящей от а.
3 а м е ч а н и е 1. Указанное свойство показательного распределения часто называют либо основным свойством, либо свойством отсутствия последействия, либо свойством отсутствия памяти, либо свойством отсутствия старения. Это свойство можно записать в виде Р(а>!+т) =Р(а>!)Р(а>т), !)О. 15 Замечание 2. Аналогичным свойством обладает только целочисленная случайная величина (.
с геометрическим распределением: Р()-=й)=рп'-', й 1, р+)=1. Доказательство (1) проводится непосредственной проверкой Р(а )!+ т, а) т) Р(а) т) ) Р(а)! + и) !(Р(т(и) Ь Р(а)г+ т) Р (а ) т) ( Р(а)и)е(Р(т (и) о ( Š— аи.! и) ЕР(т(и) о = е —" = Р (а ) т). ° (е "" йР(т(и) о 2.3. Если случайные величины а, и аг имеют одну и ту же ф.р. А(х), будем называть их эквивалентными (стохастически эквивалентными) и использовать обозначение а! аг, Класс эквивалентных случайных величин характеризуется функцией распределения, неотрицательных сл.в.
— также преобразовани- ем Лапласа — Стилтьеса, а целочисленных — еще и производя- щей функцией. При исследовании СМО, как правило, мы будем находить одно из этих представлений интересующих нас слу- чайных величин. 2.4. Если заданы две независимые сл.в. ~! и $г, $е!((1,8) (Хо А,.), е=1,2, и йЯ!, йг) — почти всюду конечная (либо неотрицательная) сл. в. д(вь вг): (ое, $) — «(В, В), то ер(х!) =Му(хь $г) — Апиз- мерима по хь и МРЯ!) =Мй(~'$г), !. е. Мд($!. $г) ==Мой(Мый'($! ~г)). Для независимых в совокупности неотрицательных сл.в.
(а», й) Ц и независимых в совокупности целочисленных сл.в. ()., и) 1) отметим следующие свойства. Распределение сл. в. а = ~)" аозадается преобразованием Лапласа — Стилтьеса в вио>1 де М ехр ( — за) — П М ехр ( — эаи). ь>! Распределение сл. в. Е = ~ !'., задается производящей функ- и~! 16 цией в виде Мзс ПМзл 3. Условные вероятности и условные математические ожидания. 3.1. Рассмотрим событие В~5, Р(В) >О, тогда условная вероятность события А, А~5, относительно события В определяется как Р(А(В) =- Рв(А) = Р (В) Если а — случайная величина, а: (1о, 5)- (К, А), и Е(х) = = Р(а(х) — ее функция распределения, то условная функция распределения случайной величины а относительно события В определяется соотношением г (х(В) = Рв(а(х).
3.2. Теперь можно определить условное математическое ожидание сл.в. а относительно события В: М(а(В) = ) а(от)Рв(т(от) = 1а(от)Р(г(то)= ) хг(г(х(В). Р(В) ) о в и Если (В., и) 1) — полная группа событий, т. е. В ПВ =Я, если тФп, ц В„==) В„= то, В„еи5, и для всех л Р(В„)>0, лэ! !!в! то справедлива формула полной вероятности для математического ожидания о: Ма = ~~~~ Р(В„) М (а(В„). Интересен случай, когда В„=(от !т)=х ) — события, которые соответствуют постоянным значениям дискретной сл.в. т).
3.3. Если ~ и т) — случайные величины, $:(й, 5)- (Х', В'), т):(11, 5)- (К, В), Е„(х) =Р(т)(х) — функция распределе- ния случайной величины т), то условным математическим ожи- данием случайной величины К относительно случайной величи- ны т) называется случайная величина МД~т)), для которой 1) сушествует борелевская функция я(х) такая, что м (~(ч) =д(ч); 2) для любого Во=В ) М (Ц т) =- х) т(Еч (х) = ~ й (от) Р (дто), в ов где ()в=(о!: т) (от)енВ).
17 В частности, МЕ = ~ М Я ~ т1 = х) ОКО (х) = М гт (т1) = М„(М (р[ т1)), 3.4. Отметим следующие свойства условного математического ожидания: а) если В и т1 — независимые сл.в., то М($[т)) =Мй; б) для любых сл. в. $, т»ь т»г М(М(а [ (т»ь т»г) ) [т»~) =М(л [т11); в) если $ и т1 — независимые сл.в. и ~=тр(4, т1) — интегрируемая борелевская функция, то М(<рД, т1) [т1 =х) =М~р(а, х), и поэтому Мтрц, т)) = ) Мр(~, х)г(Т„(х) = М (Мра т»)). 3.5. Рассмотрим т)~ а„— сумму случайного числа неотрил=.О нательных случайных величин, причем 1) случайные величины (т, а„пъО) — независимы в совокупности; 2) ал — а, п)О; 3) а(з) =-Мехр( — за), Е(а) =Ма". Тогда преобразование Лапласа — Стилтьеса сл.
в. ~ а„опрел О деляется соотношением л Мехр~ — зЯ а„) = Е(ст(з)). л=О Действительно, М[техр ~ — з~' ал)[т == й) =.. [а(з))', л=О поэтому М ехр ~ — з~ а.) = М, [а (з)[' = Р(и (з)), л=О 4. Случайные последовательности и процессы. 4.1. Большинство характеристик СМО описывается случайными процессами (4(1), 1енТ), где параметр 1 соответствует изменению времени, Т= [О, о). Напомним, что у случайного процесса ($ (1) = в (1, От); (ест, Отенйа) при каждом Я т $(1О, ОО) — случайная величина, а при фиксированном Отге-=(О й(1, Отл) — траектория случайного процесса. Особенностью про- 18 цессов массового обслуживания является то, что их траектории, как правило, не имеют разрывов Второго рода.
Чаще других рассматриваются марковские процессы, процессы восстановления и регенерирующие процессы. Основные сведения из теории таких процессов приводятся в $4. 4.2. При исследовании СМО часто рассматривают кусочнопостоярные, в частности, полумарковские процессы, что естественно приводит к исследованию случайных последовательностей Д„=к(1„); п)0). Важнейший класс таких последовательностей — цепи Маркова — также рассмотрен в $ 4.