Лекция по основам теории возможностей (М.Л. Сердобольская) (ПДФ-лекции)
Описание файла
Файл "Лекция по основам теории возможностей (М.Л. Сердобольская)" внутри архива находится в папке "ПДФ-лекции". PDF-файл из архива "ПДФ-лекции", который расположен в категории "". Всё это находится в предмете "теория вероятностей и математическая статистика" из 4 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст из PDF
4. ОСНОВЫ ТЕОРИИ ВОЗМОЖНОСТЕЙТеория вероятностей предоставляет один из мощных инструментов для моделирования экспериментов с неопределённым исходом, но применение математическихметодов теории вероятностей ограничено весьма жёсткими рамками частотного подхода.
В самом деле, согласно основополагающему принципу значение вероятности P (A) события A совпадает с частотой этого события в бесконечно длинномряду повторений случайного эксперимента. При этом предполагается, что каждоеповторение эксперимента неотличимо от любого другого с точки зрения условийэксперимента, но подобную «устойчивость» условий трудно ожидать при бесконечно большом числе повторений испытаний. Это приводит к определённым проблемампри эмпирической проверке вероятностных выводов и ограничивает круг явлений,которые могут быть адекватно описаны с помощью теории вероятностей.С другой стороны, в реальной жизни мы крайне редко используем конкретноезначение вероятности события, за исключением случаев, когда говорим об оченьмалой (практически равной нулю) или очень большой (близкой к единице) вероятности.
Говоря о значении P (A), мы едва ли скажем, что оно равно, например, 0.85,скорее сравним его с другой вероятностью, с нулём или единицей. Но для таких выводов нам, возможно, и не потребуется столь точное знание о модели наблюдений,какое требуется в рамках частотного подхода.Теория возможностей представляет собой сравнительно новый подход к описаниюэкспериментов с неопределённым исходом, и во многих случаях её использованиеможет оказаться более приспособленным к возможностям и желаниям экспериментатора. С математической точки зрения возможность, как и вероятность, являетсямерой множества элементарных исходов, её аппарат во многом схож с теоретиковероятностным и служит тем же целям.
Поэтому имеет смысл представить возможность именно как некую альтернативу вероятности, несмотря на то что построениевозможности, вообще говоря, никак не опирается и не использует вероятность.4.1. Возможность как мера множества. Пусть Ω – некоторое множествоэлементарных исходов и F = 2Ω – система всех его подмножеств. Всюду далее дляпростоты будем рассматривать конечное множество элементарных исходов,Ω = {ω1 , .
. . , ωn },2 6 n < ∞.Пусть на сигма-алгебре F = 2Ω задана вероятность, причём без ограничения общности можно считать, что элементарные исходы упорядочены по убыванию их вероятности:1 > P (ω1 ) > P (ω2 ) > · · · > P (ωn ) > 0,nXP (ωk ) = 1.(4.1)k=1Введём на сигма-алгебре F = 2Ω ещё одну меру помимо вероятности – поставимв соответствие каждому подмножеству A ⊂ Ω число Ps(A) и потребуем для Ps( · ),как и для вероятности, чтобыdef• 0 6 Ps(A) 6 1 для любого A и Ps(Ω) = 1; потребуем также на уровне акdefсиом, чтобы Ps(∅) = 0 (заметьте, здесь возможность отличается от вероятности,в которой P (∅) = 0 по аксиоме аддитивности).1Вспомним о нашей идее отказаться от конкретных значений возможности, кроме нуля и единицы, и обращать внимание только на отношения «больше-меньше».В соответствии с этим будем говорить, чтоf · ), если для любых двух• возможность Ps( · ) эквивалентна возможности Ps(событий A и BffPs(A) > Ps(B) ⇐⇒ Ps(A)> Ps(B),ffPs(A) = Ps(B) ⇐⇒ Ps(A)= Ps(B).Таким образом, задать распределение возможностей на сигма-алгебре событий Fозначает определить не одну Ps( · ) : F 7→ [0, 1], а класс эквивалентных в указанномсмысле возможностей.f · ) при выполнении (4.1) можУсловие эквивалентности возможностей Ps( · ) и Ps(но записать как1 > Ps(ω1 ) > Ps(ω2 ) > · · · > Ps(ωn ) > 0m(4.2)f 1 ) > Ps(ωf 2 ) > · · · > Ps(ωf n ) > 0,1 > Ps(ωпричём равносильность неравенств здесь очень жёсткая: там и только там, гдев одной цепочке стоит строгое неравенство, такое же строгое неравенство стоити во второй цепочке.
Или, другими словами, в (4.2) равенство Ps(ωj ) = Ps(ωk )f j ) = Ps(ωf k ).эквивалентно Ps(ωНаконец, наложим• условие согласования возможностной и вероятностной мер в смысле упорядоченности их значений:P (A) > P (B)=⇒Ps(A) > Ps(B).(4.3)Заметим, что P (A) = P (B) тогда и только тогда, когда P (A) > P (B) и P (B) > P (A).Поэтому как следствие (4.4) имеем Ps(A) > Ps(B) и Ps(B) > Ps(A).
Другимисловами, из (4.4) вытекает, чтоP (A) = P (B)=⇒Ps(A) = Ps(B).(4.4)Если выполнено условие (4.1) и возможность согласована с вероятностью, то выполнено аналогичное условие упорядоченности для возможностей элементарных исходов:1 > Ps(ω1 ) > Ps(ω2 ) > · · · > Ps(ωn ) > 0.(4.5)причём если P (ωi ) = P (ωj ), то Ps(ωi ) = Ps(ωi ).Замечание. Если смотреть на условие согласования неравенств (4.1) и (4.5) «состороны возможности», то легко заметить, что одной и той же возможности Ps( · )отвечает целый класс согласованных с ней вероятностей, удовлетворяющих (4.1).Вспомнив, что сама возможность по сути есть тоже класс эквивалентных возможностей, мы можем сделать вывод, что условие согласования – это согласование двухклассов мер. Но необходимо иметь в виду, что вероятности, отвечающие одной и тойже возможности, вовсе не эквивалентны между собой.
Если мы попытаемся решатьзадачи, выбирая то одну, то другую вероятность, мы будем получать разные ответы. В то же время все возможности, удовлетворяющие (4.5), эквивалентны: любые2выводы, полученные с помощью какого-то одного представителя из класса возможностей, в точности совпадают с выводами в рамках эквивалентной возможностноймодели.4.2.
Операции суммы и произведения возможностей. Для работы с возможностями различных событий нам необходимо ввести операции суммы (⊕) и произведения (⊗) возможностей. Мы выбрали для этих операций собственные символы,потому что эти операции не совпадают с привычными (арифметическими) суммойи произведением чисел.Необходимость ввести новые операции связана всё с тем же отказом от конкретных значений в пользу строгого сохранения отношения порядка. Поскольку упорядоченность двух чисел сохраняется при строго монотонных преобразованиях, мыобязаны потребовать, чтобы операции ⊕ и ⊗ были инвариантны относительно такихпреобразований: если γ( · ) : [0, 1] 7→ [0, 1] есть строго монотонная функция, γ(0) = 0и γ(1) = 1, то для любых двух чисел x, y ∈ [0, 1] равенство x ⊕ y = z имеет местотогда и только тогда, когда γ(x) ⊕ γ(y) = γ(z) и аналогично для произведения, или,в другой форме записи,γ(x) ⊕ γ(y) = γ(x ⊕ y),γ(x) ⊗ γ(y) = γ(x ⊗ y)(4.6)для всех x, y ∈ [0, 1] и любой строго монотонной функции γ( · ), сохраняющей значения 0 и 1.
Потребуем также выполнения следующих равенств для любых x, y ∈ [0, 1]:x ⊕ y = y ⊕ x,0 ⊕ x = x,x ⊗ y = y ⊗ x,0 ⊗ x = 0,1 ⊕ x = 1,1⊗x=x(4.7)(отметим, что только 1 ⊕ x = 1 отличает введённые нами операции от арифметических суммы и произведения).Нетрудно видеть, что наложенные требования (4.6) и (4.7) выполнены, если положить для x, y ∈ [0, 1]defdefx ⊕ y = max(x, y),x ⊗ y = min(x, y).(4.8)Можно показать, что при некоторых дополнительных условиях на операции вернои обратное: условия (4.6) и (4.7) влекут (4.8).PP (ωk ) возможность любого A ⊂ Ω какОпределим по аналогии с P (A) =ωk ∈AdefPs(A) =MPs(ωk ) = max Ps(ωk ) = Ps(ωk∗ (A) ),ωk ∈Aωk ∈Ak∗ (A) = min k.ωk ∈Af · ) эквивалентны в смысле жёсткогоЗаметим, что если возможности Ps( · ) и Ps(условия согласования упорядоченности (4.2), то в наших обозначениях равенствоPs(ωk∗ (A) ) = Ps(A) = Ps(B) = Ps(ωk∗ (B) )f k (A) ) = Ps(ωf k (B) ) имеетвследствие равносильности Ps(ωk∗ (A) ) = Ps(ωk∗ (B) ) и Ps(ω∗∗место тогда и только тогда, когдаff k (A) ) = Ps(ωf k (B) ) = Ps(B).fPs(A)= Ps(ω∗∗3АналогичноPs(ωk∗ (A) ) = Ps(A) < Ps(B) = Ps(ωk∗ (B) )f k (A) ) < Ps(ωf k (B) ) имеетвследствие равносильности Ps(ωk∗ (A) ) < Ps(ωk∗ (B) ) и Ps(ω∗∗место тогда и только тогда, когдаff k (A) ) < Ps(ωf k (B) ) = Ps(B).fPs(A)= Ps(ω∗∗Таким образом, условие (4.2) согласования упорядоченности элементарных исходовдля эквивалентных возможностей влечёт аналогичное условие для произвольныхсобытий.Отметим также следующие следствия из нашего определения.
В силу условияупорядоченности (4.5) мы имеем Ps(Ω) = Ps(ω1 ), но по определению Ps(Ω) = 1, поэтому в (4.5) следует положить Ps(ω1 ) = 1. Кроме того, если A ⊂ B, то множествотех элементарных исходов, которые влекут A, содержится в множестве элементарных исходов, влекущих B, поэтомуPs(A) = max Ps(ωk ) = max Ps(ωk ) = Ps(B),ωk ∈Aωj ∈Bи мы имеем монотонность возможности: Ps(A) 6 Ps(B), если A ⊂ B. Далее,Ps(A ∪ B) = max Ps(ωk ) 6 max max Ps(ωi ), max Ps(ωj ) = Ps(A) ⊕ Ps(B),ωk ∈A∪Bωi ∈Aωj ∈Bдругими словами, возможность аддитивна, Ps(A ∪ B) = Ps(A) ⊕ Ps(B), причём этоверно для любых (не обязательно непересекающихся) подмножеств A и B.
Дляпересечения получаемPs(A ∩ B) = max Ps(ωk ) 6 max Ps(ωk ) = Ps(A),ωk ∈A∩Bωk ∈APs(A ∩ B) = max Ps(ωk ) 6 max Ps(ωk ) = Ps(B),ωk ∈A∩Bωk ∈Bследовательно,Ps(A ∩ B) 6 min Ps(A), Ps(B) = Ps(A) ⊗ Ps(B)для любых подмножеств A и B.4.3. Необходимость. До сих пор мы ничего не говорили о возможности дополнения к множеству. Здесь мы сталкиваемся со следующей проблемой:1 = Ps(Ω) = Ps(A ∪ Ā) = Ps(A) ⊕ Ps(Ā) = max Ps(A), Ps(Ā) ,откуда следует, что если Ps(A) 6= 1, то Ps(Ā) = 1, а если Ps(A) = 1, то Ps(Ā) может принимать любые значения.
Получается, что Ps(Ā) нельзя однозначно связатьс Ps(A) = 1. Это приводит к тому, что нам требуется ввести ещё одну меру, характеризующую возможность того, что событие A не произойдёт. Назовём эту мерунеобходимость и будем обозначать как Ns( · ). В сущности необходимость события Aесть невозможность того, что A не произойдёт.4Попробуем формализовать последнее определение.