Главная » Просмотр файлов » Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006)

Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267), страница 188

Файл №1245267 Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006)) 188 страницаРассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267) страница 1882021-01-15СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 188)

Выборка из распределения Р(апис(у) =<О. 5, О. 5>; предположим, что она возвращает значение сгие. 2. Яргуп)с1ег — переменная доказательства со значением сгие. Поэтому мы устанавливаем: ы С- ьХР(ярттп)с1ет=етие[С1оис)у=етое) =О. 1 3. Выборка из распределения Р(кауп[С1оис)у=бгие) =<0.8, 0.2>; предположим, что она возвращает значение сгие. 4. и(есугаев — переменная доказательства со значением сгие. Поэтому мы устанавливаем; ы ь- ыхр(асееотаез=стие) Бртдпм1ет=етие, латп=стие) =О. 099 Теперь алгоритм Ь)ефд)зсес[-Яавзр1е возвращает событие [ сгие, сгие, сгие, сгие) с весом 0,099, и данные об этом событии подытоживаются с учетом условия даЕп= сгие.

Этот вес является низким потому, что событие описывает пасмурный день, в который вероятность применения опрыскивателя является весьма небольшой. Чтобы понять, как работает алгоритм оценки веса с учетом правдоподобия, начнем с изучения сформированного с помощью выборок распределения Ян, для функции (яефд)зсес[-Яаспр1е. Напомним, что переменные свидетельства и зафиксированы со значениями е. Обозначим все прочие переменные как и, иными словами, и=(х)с ге.

В алгоритме выборки для каждой переменной из х, если даны ее родительские значения, формируются следующим образом: 1 Яяя(в,е) = ПР(гс[ратепеа(аз) ) (14.6) 1=1 бе9 Глава 14. Вероятностные рассуждения гн ъ(а,е) = П Р(е,(рагепса(яз) ) 1=1 (14.7) Умножая уравнения 14.б и 14.7, можно определить, что соотношение для взве- шенной вероятности выборки имеет следующую особенно удобную форму, по- скольку эти два произведения охватывают все переменные, заданные в сети: 1 т Ягн(н,е)и(в,е) = П Р(н,(рагепеа(Я,) ) П Р(е,(рагепея(вг) ) з=1 1=1 Р(н,е) (14.8) Это позволяет использовать для вычисления совместной вероятности уравнение 14.1.

Теперь можно легко показать, что оценки весов, полученные с учетом правдоподобия, являются согласованными. Для любого конкретного значения х переменной х оценка апостериорной вероятности может быть рассчитана следующим образом: Р(х(е) = а,) н(гн(х,у, е) ы(х, у, е) иэ алгоритма ьь)се11)гоос)-н)еьо)зстлд у а' ~ Яав(х У,е) ь(х,у, е) для больших И У н Желательно было бы использовать распределение вероятностей сформированных выборок, равное истинному апостериорному распределению Р (а ) е), чтобы в расчет приниматнсь все снидетельства.

Но такой подход не может быть осуществлен эффектинно, поскольку если бы существовала такая возможность, то мы могли бы оценивать желаемую вероятность с любой заданной точностью, применяя полиномиальное количество выборок. Тем не менее можно показать, что существование такой полипом иальной схемы аппроксимации невозможно. ОбратИтЕ ВНИМаНИЕ НатО, ЧтО В ЧИСЛО ПЕРЕМЕННЫХ Рагепба (я,) МОГут ВХОдИтЬ И скрытые переменные, и переменные свидетельства. В отличие от априорного рас- ПРЕДЕЛЕНИЯ Р(а), В РаСПРЕДЕЛЕНИИ .Я„н НЕКОТОРОЕ ВНИМаНИЕ УДЕЛЕНО СВИДЕтЕЛЬСтВУ: на значения сформированных выборок для каждой переменной я„кроме других предков г„, оказывает влияние само свидетельство.

С другой стороны, в распределении ~нн свидетельству уделяется меньше внимания, чем в истинном апостериорном распределении Р (и ~ е), поскольку в значениях сформированных выборок для каждой переменной гз игнорируются свидетельства', относящиеся к переменным, которые не являются предками ям Весовое значение правдоподобия ы представляет собой разность между фактическим и желаемым распределениями вероятностей сформированных выборок. Такой вес для данной конкретной выборки х, состоящий из значений в и е, является произведением значений правдоподобия каждой переменной свидетельства, если даны ее родительские переменные (причем некоторые или все эти переменные могут находиться среди переменных 2,); 690 Часть 'у'.

Неопрелеленные знания н рассуждения в условиях неопределенности = а' ~) Р(х,у,е) У и' Р(х,е) = Р(х)е) согласно уравнению З4.В Поэтому алгоритм оценки веса с учетом правдоподобия возвращает согласованные оценки. Поскольку в алгоритме оценки веса с учетом правдоподобия используются все сформированные выборки, он может оказаться гораздо более эффективным по сравнению с алгоритмом формирования выборок с исключением.

Тем не менее его недостатком является снижение производительности по мере увеличения количества переменных свидетельства. Это связано с тем, что в таком случае большинство выборок имеет очень низкие веса, поэтому в составе взвешенной оценки доминирует крошечная доля выборок, которые согласуются со свидетельством с правдоподобием, большим бесконечно малого. Эта проблема усугубляется, если переменные свилетельства расположены на последних местах в упорядочении переменных, поскольку в таком случае процесс формирования выборок представляет собой процесс моделирования, имеющий мало сходства с реальностью и имитируемый с помощью свидетельства. Вероятностный вывод по методу моделирования цепи Маркова В этом разделе описан алгоритм ев Монте-Карло с применением цепи Маркова (Маг)гоч спа)п Моп(е Саг1о — МСМС), предназначенный для вероятностного вывода в байесовских сетях.

Вначале опишем, какие действия выполняются в этом алгоритме, затем объясним, благодаря чему он работает и почему имеет такое сложное название. Алгоритм МСМС В отличие от других двух алгоритмов формирования выборок, которые вырабатывают каждое событие с нуля, в алгоритме МСМС каждое событие вырабатывается путем внесения случайного изменения в предыдущее событие. Поэтому сеть целесообразно рассматривать как находящуюся в конкретном текущем состоянии, заданном с помощью присваивания значения каждой переменной.

Переход в следующее состояние осуществляется путем случайного формирования выборки значения для одной из переменных Хз, отличных от переменных свидетельства, причем это значение обусловлено текущими значениями переменных в марковском покрытии переменной йп (Напомним, что, как было сказано на с. 1, марковское покрытие переменной состоит из ее родительских переменных, дочерних переменных и родительских переменных дочерних переменных.) Поэтому в алгоритме МСМС предусмотрено случайное блуждание по пространству состояний (пространству возможных полных присваиваний), в котором каждый раз изменяется значение одной переменной, но значения переменных свидетельства остаются зафиксированными.

Рассмотрим запрос Р(латп~ Бргтп)с1ег=сгие, иесагаее=сгие), примененный к сети, которая показана на рис. 14.9, а. Для переменных свидетельства аргун)г1ег и итесйгаэе зафиксированы их наблюдаемые значения, а скрытые переменные апис)у и яатп инициализированы случайным образом; допустим, что им присвоены значения сгие и га1эе соответственно. Таким образом, начальным 69! Глава 14. Вероятностные рассуждения состоянием является [ сгце, сгце, Га1зе, с гце]. После этого повторно выполня- ются описанные ниже этапы. 1. Формируется выборка для переменной С1оцс]у с учетом текущих значений переменных марковского покрытия: в данном случае выборка берется из Р ( С1 оцс1у] Яргйп]г1ег= сгце, дайн= га1зе) .

(Вскоре мы покажем, как рассчитать это распределение.) Предположим, что результатом является С1оцс[у=га1зе. В таком случае новым текущим состоянием становится [Еа1зе, сгце, Га1зе, сгце]. 2. Формируется выборка для переменной пайп с учетом текущих значений переменных марковского покрытия: в данном случае выборка берется из Р(дауп] с1оцс]у=йа1зе, Брг1п)г1ег=сгпе, й)ессгазз=сгце). Предположим, что эта операция приводит к получению пайп= сг пе. Новым текущим состоянием становится [га1зе, сгце, сгце, сгце]. Каждое состояние в пространстве состояний, посещенное в ходе этого процесса, представляет собой выборку, которая вносит свой вклад в оценку вероятности переменной запроса пайп.

Если в данном процессе посещаются 20 состояний, в которых переменная дабл принимает истинное значение, и 60 состояний, в которых переменная кайл становится ложной, то ответом на запрос становится Могзпа112е (<20, 60>) =<О. 25, О. 75>, Полный алгоритм показан в листинге 14 6. Листинг 14.6. Алгоритм МСМС приближенного вероятностного вывода в байесовскнх сетях бнпсввоп МСМо-язх(Х, е, Ьп, и) гегчгпв оценка значения Р(Х[е) 1оса1 чаг1аЬ1евг Б[Х], вектор результатов подсчетов по Х, первоначально равный нулю 2, переменные в сети Ьп, отличные от переменных свидетельства х, текуыее состояние сети, первоначально скопированное из е инициализировать х случайными значениями переменных из 2 гог У = 1 Ео )Ч ао гог еаси 2, ап Я ао выполнить выборку значения переменной Я, в векторе х из Р(Я,]юЬ(яь)), если даны значения мв(аь) в векторе х и[х] ь- и[х]+1, где х представляет собой значение переменной х в множестве х гевсгп Могиа11зе(Б[Х]) Обоснование правильности работы алгоритма МСМС В этом разделе будет показано, что алгоритм МСМС возвращает согласованные оценки для апостериорных вероятностей.

Материал, изложенный в данном разделе, является весьма формальным, но основное утверждение в нем несложно: са процесс формирования выборок переходит в "динамическое равновесие", в котором в конечном итоге доля времени, проведенного в кахгдам состоянии, точно пропорциональна алостериоряои вероятности этого состояния. Такое замечательное свойство является следствием конкретной сь переходной вероятности, с которой данный процесс переходит из од- 692 Часть Ч. Неопределенные знания и рассуждения в условиях неопределенности ного состояния в другое и которая определена условным распределением, заданным с учетом марковского покрытия переменной, для которой формируется выборка. Предположим, что с((х — >х' ) — вероятность того, что в этом процессе произойдет переход из состояния х в состояние х'. Эта переходная вероятность определяет информационную структуру, заданную на пространстве состояний, которая называется 'з.

цепью Маркова. (Цепи Маркова играют также важную роль в главах 15 и 17.) Теперь предположим, что мы развернули цепь Маркова на с этапов, и допустим, что и, (х) — вероятность того, что система находится в состоянии х во время С. Аналогичным образом, допустим, что псы (х ' ) — вероятность пребывания системы в состоянии х' во время с+1. Если дано значение и, (х), то значение псы (х' ) можно рассчитать путем суммирования по всем состояниям, в которых система может находиться во время с, вероятностей пребывания в этом состоянии, умноженных на вероятности осуществления перехода в состояние х ', следующим образом: псы(к') = ~~) п,(х)гу(х — гк') х Цепь называется достигшей своего ох стационарного распределения (гпайопагу г()з(пЬц(1оп), если и, = и„,.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6480
Авторов
на СтудИзбе
304
Средний доход
с одного платного файла
Обучение Подробнее