Диссертация (1145439), страница 30
Текст из файла (страница 30)
Так как все игроки в коалиции Kидентичны, то из уравнения (5.12) следует, что оптимальные выловы членов коалицииимеют видuKi =(1 − a)(k − a(k − 1))εx ,k(n − a(n − 1))(5.13)178и, тогда, выигрыш коалиции имеет вид (5.7).Заметим, что полученные оптимальные стратегии допустимы, т.к.XXεa(k − a(k − 1))εx −x < x.uKuNi −i =n − a(n − 1)i∈Ki∈N \KДля дальнейших доказательств нам понадобится следующее равенство:³ 1´BK = kBi + kln(k − a(k − 1)) − ln k .1−a(5.14)Динамика развития популяции в случае формирования коалиции K имеет видtPαtxt = x0 x̂K j=1αj, t = 1, 2, .
. . , x̂K =εa(k − a(k − 1)).n − a(n − 1)Наконец, найдем выигрыш и оптимальные стратегии в случае полной кооперации (формировании гранд коалиции). Из (5.13) и (5.7) получимuIi =(1 − a)εxn(5.15)и выигрыш гранд коалиции в виде (5.8).Динамика развития популяции при кооперативном поведении имеет видxt =tPαjαt I j=1x0 x̂, t = 1, 2, . . . , x̂I = εa .(5.16)В теории динамических игр важным показателем целесообразности формирования коалиции является свойство супераддитивности характеристической функции, т.е.
выполнениеусловияV (K ∪ L, xt ) ≥ V (K, xt ) + V (L, xt ) ∀t .Для доказательства этого свойства в представленной модели воспользуемся следующимутверждением.Лемма 5.1. Для c > d функция f (z) =1z³ 1 + zc ´lnубывает по z.1 + zdДоказательство. Рассмотрим³ 1 + zc ´i1h ³ cd ´10f (z) = 2 z−− ln= 2 g(z) .z1 + zc 1 + zd1 + zdzФункция g(z) неположительна, так как g(0) = 0 и´³d2c2−≤0g 0 (z) = −z(1 + zc)2 (1 + zd)2при c > d.Отсюда следует f 0 (z) < 0.179Теорема 5.2.
Характеристическая функция (5.5) является супераддитивной, т.е.V (K ∪ L, xt ) ≥ V (K, xt ) + V (L, xt ) ∀t .Доказательство. Необходимо показать, чтоV (K ∪ L, xt ) − V (K, xt ) − V (L, xt ) =1L= AK∪L ln(xK∪L) − AK ln(xK(BK∪L − BK − BL ) =tt ) − AL ln(xt ) +1−δ³ xK∪L ´³ xK∪L ´1t+ AL ln t L+= AK ln(BK∪L − BK − BL ) ≥ 0 .K1−δxtxtСначала заметим, чтоxKtследовательноln=x³ xK∪L ´txKt=αt³ εa(k − a(k − 1)) ´ Pt αjtXj=1j=1n − a(n − 1)αj ln,³ k + l − a(k + l − 1) ´k − a(k − 1)>0так какk + l − a(k + l − 1)l(1 − a)−1=> 0.k − a(k − 1)k − a(k − 1)Затем рассмотрим вторую часть неравенства и воспользуемся свойством (5.14)BK∪L − BK − BL = (k + l)Bi +³ 1´ln(k + l − a(k + l − 1)) − ln(k + l) −1−a³ 1´−kBi − kln(k − a(k − 1)) − ln k −1−a´³ 1−lBi − lln(l − a(l − 1)) − ln l =1−a³ 1³ k + l − a(k + l − 1) ´³ k + l ´´− ln+=kln1−ak − a(k − 1)k³ 1³ k + l − a(k + l − 1) ´³ k + l ´´+lln− ln.1−al − a(l − 1)l+(k + l)Рассмотрим выражение в первых круглых скобках³ k + l − a(k + l − 1) ´³k + l´1ln− ln.f (a) =1−ak − a(k − 1)kОбозначим z = 1 − a, тогдаf (z) =³k + l´1 ³ 1 + (k + l − 1)z ´ln− ln.z1 + (k − 1)zkВоспользуемся леммой с k + l − 1 = c > d = k − 1.
Функция f (z) убывает по z. Такимобразом, f (a) возрастает по a и f (0) = 0, отсюда f (a) неотрицательна.180Аналогично доказывается, что³ k + l − a(k + l − 1) ´³k + l´1ln− ln≥ 0.1−al − a(l − 1)lИтак, доказаноBK∪L − BK − BL ≥ 0 .Следствие 5.1. При кооперативном поведении состояние экологической системы лучше,чем в равновесии по Нэшу.Доказательство. Сравним размеры популяций, используя (5.11) и (5.16). Легко видеть,чтоx̂I = εa >εa= x̂N ,n − a(n − 1)но для оптимальных промысловых усилий игроков верно обратное неравенствоγiI =(1 − a)ε(1 − a)ε<= γiN .nn − a(n − 1)Когда характеристическая функция определена, необходимо выбрать дележ. В данномразделе, как и ранее, в качестве принципа распределения кооперативного выигрыша используется вектор Шепли (2.4).Теорема 5.3. Вектор Шепли в задаче (5.3), (5.4) имеет видξi (t) =11ln xt +(Bi + Bξ ) ,1−a1−δгдеBξ =1ln(1 + (n − 1)(1 − a)) − ln n ≥ 0 .1−aДоказательство.
Вычислим вклад игрока i в выигрыш коалиции K:1(BK − BK\{i} ) =VK (xt ) − VK\{i} (xt ) = (AK − AK\{i} ) ln xt +1−δ´111 ³ ³ 1=ln xt +Bi +kln(1 + (k − 1)(1 − a)) − ln k −1−a1−δ1−δ1−a´´³ 1ln(1 + (k − 2)(1 − a)) − ln(k − 1) .−(k − 1)1−a(5.17)181Данное выражение не зависит от i, следовательноXξi (t) =K⊂N, i∈K=nX1(n − k)!(k − 1)![VK (xt ) − VK\{i} (xt )] =[VK (xt ) − VK\{i} (xt )] =n!nk=1111ln xt +(Bi +ln(1 + (n − 1)(1 − a)) − ln n) .1−a1−δ1−aТеорема 5.4.
Вектор Шепли (5.17) формирует динамически устойчивую процедуру распределения дележа и условие, стимулирующее рациональное поведение на каждом шаге,выполнено.Доказательство. Используя (5.17) динамически устойчивую ПРД для данной модели получим в видеβi (t) =1(ln xt − δ ln xt+1 ) + Bi + Bξ .1−aА условие, стимулирующее рациональное поведение на каждом шаге, принимает вид11(ln xt − δ ln xt+1 ) + Bi + Bξ ≥(ln xt − δ ln xt+1 ) + Bi ,1−a1−aи оно выполняется, так как Bξ ≥ 0.3.5.2.
Модель с информированными игрокамиРассмотрим теперь другой сценарий, когда игроки вне коалиции K узнают о формировании коалиции, и поэтому меняют свои стратегии на новые, которые образуют равновесиепо Нэшу в игре с N \K агентами.Теорема 5.5. Характеристическая функция для игры (5.3), (5.4) с информированнымиигроками, начинающейся в момент t из состояния xt имеет вид0,L = 0, Ṽ ({i}, x ) = V (x ), L = {i} ,ti tṼ (L, xt ) =Ṽ (K, xt ) = ṼK (xt ), L = K , Ṽ (I, x ) = V (x ),L=I,tItгде Vi (xt ), VI (xt ) имеют вид (5.6), (5.8), а выигрыш коалиции K –ṼK (xt ) =где1kln xt +B̃K ,1−a1−δ³ 1³´´εaB̃K = kln+ ln(1 − a) +ln a − ln k .1−a1 + (n − k)(1 − a)1−a(5.18)182Доказательство. Характеристическая функция в данном случае отличается от (5.5) только выигрышем любой возможной коалиции VK .Действуем как и ранее: для игроков из коалиции K решаем уравнение БеллманаXXXαṼK (x) = max{ln ui + δ ṼK (εx −ui −ũNi ) },ui ∈Ki∈Ki∈K(5.19)i∈N \Kгде ũNi соответствует решению уравнения Беллмана для игрока i вне коалиции KṼi (x) = max {ln ũi + δ Ṽi (εx −ũi ∈N \KXui −i∈KXũi )α } , i ∈ N \K .(5.20)i∈N \KРешение этих уравнений ищем в видеṼK (x) = ÃK ln x + B̃K , Ṽi (x) = Ãi ln x + B̃i , i ∈ N \K ,а оптимальные стратегии – ui = γiK x, i ∈ K и ũi = γ̃iN x , i ∈ N \K.
Из (5.19) следует, чтооптимальные выловы игроков в коалиции K равныũKi =1−aεx ,k(1 + (n − k)(1 − a))(5.21)а выигрыш имеет вид (5.18).Отметим нужное для дальнейшего исследования равенство³ 1³ 1 + (n − 1)(1 − a) ´´B̃K = kBi + kln− ln k .1−a1 + (n − k)(1 − a)(5.22)Для игроков, не входящих в коалицию K, оптимальные стратегии равныũNi =1−aεx ,1 + (n − k)(1 − a)а выигрыши –Ṽi (x) =гдеB̃i =11ln x +B̃i ,1−a1−δ³´εa1ln+ ln(1 − a) +ln a .1−a1 + (n − k)(1 − a)1−aЗаметим, что полученные оптимальные стратегии участников допустимы, т.к.εx −XũKi −i∈KXi∈N \KũNi =εax < x.1 + (n − k)(1 − a)Соответствующая динамика в случае формирования коалиции K естьxt =tPαjαt K j=1x0 x̃, t = 1, 2, . . .
, x̃K =εa.1 + (n − k)(1 − a)Для гранд коалиции I оптимальные стратегии и выигрыши совпадают с предыдущимсценарием.183Так как выигрыши в некооперативном случае и при формировании гранд коалициисовпадают со случаем отсутствия информации, то следствие 5.1 справедливо и в данноймодели.Также, аналогично модели без информации можно показать, что построенная характеристическая функция является супераддитивной.Вектор Шепли и динамически устойчивую процедуру распределения дележа получиманалогично предыдущему разделу. Из (2.4) следуетξi (t) =11ln xt +(Bi + B̃ξ ) ,1−a1−δгде³ 1 + (n − 1)(1 − a) ´´X (n − k)!(k − 1)! h ³ 1B̃ξ =kln− ln k −n!1−a1 + (n − k)(1 − a)K∈N³ 1³ 1 + (n − 1)(1 − a) ´´i−(k − 1)ln− ln(k − 1) =1−a1 + (n − k + 1)(1 − a)nh³³ 1 + (n − 1)(1 − a) ´´X11=kln− ln k −n1−a1 + (n − k)(1 − a)k=1³ 1³ 1 + (n − 1)(1 − a) ´´i−(k − 1)ln− ln(k − 1) =1−a1 + (n − k + 1)(1 − a)1=ln(1 + (n − 1)(1 − a)) − ln n .1−aАналогично теореме 5.4.
можно доказать следующее утверждение:Теорема 5.6. Вектор Шепли в модели с информацией определяет динамически устойчивую ПРД и выполняется условие, стимулирующее рациональное поведение на каждомшаге.Проведем сравнение выигрышей участников при использовании двух представленныхсхем: без информации и с информацией.Следствие 5.2. Выигрыши индивидуальных игроков в модели с информацией больше, чемв модели без информации.Доказательство. Вычислим разность в выигрышах игроков вне коалиции K:³ 1 + (n − 1)(1 − a) ´11Ṽi (x) − Vi (x) =(B̃i − Bi ) =ln> 0.1−δ(1 − δ)(1 − a)1 + (n − k)(1 − a)184Следствие 5.3. Выигрыш коалиции K в модели без информации больше, чем в модели синформацией.Доказательство.
Вычислим разность в выигрышах игроков в коалиции K:1VK (x) − ṼK (x) =(BK − B̃K ) =1−δ³ (1 + (n − k)(1 − a))(1 + (k − 1)(1 − a)) ´k=ln>0(1 − δ)(1 − a)1 + (n − 1)(1 − a)так как(k − 1)(1 − a)2 (n − k)(1 + (n − k)(1 − a))(1 + (k − 1)(1 − a))−1=> 0.1 + (n − 1)(1 − a)1 + (n − 1)(1 − a)Следствие 5.4. В модели без информации численность популяции при формированиикоалиции больше, чем в модели с информированными игроками.Доказательство. Найдем соответствующую разность:εa(k − a(k − 1))εa−=1 + (n − 1)(1 − a) 1 + (n − k)(1 − a)(1 − a)2 (n − k)(k − 1)=> 0.(1 + (n − 1)(1 − a))(1 + (n − k)(1 − a))xK − x̃K =Результаты моделированияМоделирование было проведено для следующих параметров:δ = 0.1 , ε = 0.8 , x0 = 0.8 ,α = 0.3 , n = 10 ,k = 5.Сначала сравним размер популяции при кооперации и при некооперативном поведении.
На рис. 3.14 показано развитие популяции в равновесии по Нэшу (светлая линия) ипри кооперации (темная линия). Видно, что размер популяции при кооперации больше.Этот результат еще раз показывает, что некооперативное поведение неэффективно из-заперелова.На рис. 3.15 изображена компонента вектора Шепли (ξi (t)) игрока i (темная линия) иего выигрыш в равновесии по Нэшу – V{i} (светлая линия). Легко заметить, что каждомуигроку выгодно вступать в коалицию.1850.8Shi(t)Vi(t)0.7-3.5x(t)0.6-40.5-4.50.40.3-50.2-5.50.1024681012141618200t2468101214161820tРис.
3.14. Размер популяции: приРис. 3.15. Компонента вектора Шепли икооперации и в равновесии по Нэшунекооперативный выигрышbi(t)Vi(t)x(t)0.8-3Shi(0)0.7-3.50.6-40.5-4.50.4-50.30.2-5.5024681012141618tРис. 3.16. ПРД, некооперативный0.102468101214161820tРис. 3.17. Размер популяциивыигрыш и Shi (0)На рис. 3.16 показаны динамически устойчивая процедура распределения дележа (βi (t))для игрока i (темная линия), его выигрыш в равновесии по Нэшу – V{i} (светлая линия) икомпонента вектора Шепли (общий выигрыш игрока i за всю игру) ξi (0) (пунктир). Видно,что ПРД больше, чем выигрыш в равновесии по Нэшу в каждый момент времени.