Главная » Просмотр файлов » Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006)

Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267), страница 258

Файл №1245267 Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006)) 258 страницаРассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267) страница 2582021-01-15СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 258)

В Рассматриваемом примере с конфетами Л„„=)зв после обнаружения трех лимонных леденцов подряд, поэтому агент, обучаю!цийся с помошью МАР-гипотезы, после этого предсказывает, что четвертая конфета представляет собой лимонный леденец, с вероятностью 1. О, а это — гораздо более радикальное прелсказание, чем байесовское предсказание вероятности О. 8, приведенное на рис. 20.1. Глава 20. Статистические методы обучения 949 Помере поступления дополнительных данных предсказания с помощью МАР- гипотезы и байесовские предсказания сближаются, поскольку появление гипотез, конкурируюгцих с МАР-гипотезой, становится все менее и менее вероятным.

Хотя в рассматриваемом примере это не показано, поиск МАР-гипотез часто бывает намного проще по сравнению с байесовским обучением, поскольку требует решения задачи оптимизации, а не задачи вычисления большой суммы (или интегрирования). Примеры, подтверждающие это замечание, будут приведены ниже в данной главе. И в байесовском обучении, и в обучении с помощью МАР-гипотез важную роль играет распределение априорных вероятностей гипотезы р()з,) . Как было показано в главе 18, если пространство гипотез является слишком выразительным, в том смысле, что содержит много гипотез, хорошо согласующихся с набором данных, то может происходить чрезмерно тщательная подгонка.

С другой стороны, байесовские методы обучения и методы обучения на основе МАР-гипотез не налагают произвольный предел на количество подлежащих рассмотрению гипотез, а позволяют использовать распределение априорных вероятностей для наложения штрафа за сложность. Как правило, более сложные гипотезы имеют более низкую априорную вероятность, отчасти потому, что сложных гипотез обычно бывает намного больше, чем простых.

С лругой стороны, более сложные гипотезы имеют большую способность согласовываться с данными (в крайнем случае какая-то поисковая таблица может оказаться способной точно воспроизводить данные с вероятностью 1). Поэтому в распределении априорных вероятностей гипотезы воплощен компромисс между сложностью гипотезы и степенью ее согласования с данными. Влияние такого компромисса можно наблюдать наиболее наглядно в случае использования логических гипотез, когда переменная и содержит только детерминированные гипотезы.

В таком случае значение р(й ~ йц) равно 1, если гипотеза )з, согласуется с данными, и 0 — в противном случае. Рассматривая уравнение 20.1, можно определить, что )зн„, в таких условиях представляет собой сд- нросюейшую логическую теорию, согласованную с дпннызчи. Поэтому обучение с помощью максимальной апостериорной гипотезы представляет собой естественное воплощение принципа бритвы Оккама. Еще один способ анализа компромисса между сложностью и степенью согласованности состоит в том, что можно исследовать уравнение 20.1, взяв его логарифм. Применение значения бю, для максимизации выражения Р(ез))з,) Р(бг) эквивалентно минимизации следующего выражения: -) одгР(й) гн) — 1од~Р(щ) Используя связь между информационным содержанием и вероятностью, которая была описана в главе 18, можно определить, что терм -1од,. ()зг) определяет количество битов, требуемых для задания гипотезы Лг.

Кроме того, терм -1од,р(д ! б,) представляет собой дополнительное количество битов, требуемых для задания данных, если дана рассматриваемая гипотеза (чтобы убедиться в этом, достаточно отметить, что если гипотеза точно предсказывает данные, как в случае гипотезы Л, и сплошного ряда конфет с лимонными леденцами, не требуется ни одного бита, поскольку 1од,1 = О). Таким образом, обучение с помощью МАР-гипотезы равносильно выбору гипотезы, которая обеспечивает максимальное сжатие данных. Такую же задачу можно решить более прямо с помощью метода обучения на основе 'ск минимальной длины описания, или сокращенно МР1. (М)п)пплп Оезсг)р(юп Часть Уь Обучение 950 Еепябз), в котором вместо манипуляций с вероятностями предпринимаются попытки минимизировать размер гипотезы н закодированного представления данных. Окончательное упрощение может быть достигнуто путем принятия предположения о равномерном распределении априорных вероятностей по пространству гипотез.

В этом случае обучение с помогцью МАР-гипотезы сводится в выбору гипотезы )зг, которая максимизирует значение я(о ~ ~, ) . Такая гипотеза называется гипотезой с ск максимальным правдоподобием (Махппшп (.1)се)йлоод — МЕ) и сокращенно обозначается Л„,. Обучение на основе гипотезы с максимальным правдоподобием очень широко применяется в статистике, поскольку в этой научной области многие исследователи не доверяют распределениям априорных вероятностей гипотезы, считая, что они имеют субъективный характер.

Это — приемлемый подход, применяемый в тех обстоятельствах, когда нет оснований априорно отдавать предпочтение одной гипотезе перел другой, например, в тех условиях, когда все гипотезы являются в равной степени сложными. Такой метод обучения становится хорошей аппроксимацией байесовского обучения и обучения с помощью МАР-гипотезы, когда набор ланных имеет большие размеры, поскольку данные сами исправляют распределение априорных вероятностей по гипотезам, но связан с возникновением определенных проблем (как будет показано ниже) при использовании небольших наборов данных. 20.2.

ОБУчение с помощью полныхдАнных Начнем разработку методов статистического обучения с простейшей задачи— Ж обучение параметрам с помощью 'в. полных данных. Задача обучения параметрам сводится к поиску числовых параметров для вероятностной модели, имеющей фиксированную структуру. Например, может потребоваться определить в процессе обучения условные вероятности в байесовской сети с заданной структурой.

Данные называются лолнымо, если каждая точка данных содержит значения для каждой переменной в вероятностной модели, применяемой при обучении. При наличии полных данных задача определения в процессе обучения параметров сложной модели значительно упрощается. Кроме того, в данном разделе кратко рассматривается задача изучения структуры.

Обучение параметрам с помощью метода максимального правдоподобия: дискретные модели Допустим, что мы покупаем пакет конфет с лимонными и вишневыми леденцами, выпущенный новым изготовителем, соотношение лимонных и вишневых леденцов в продукции которого полностью неизвестно; это означает, что доля тех и других леденцов может измеряться любым значением от 0 до 1. В данном случае приходится рассматривать континуум гипотез. Кроме того, в этом случае параметром, который будет обозначаться как О, является доля вишневых леденцов, а гипотезой является Ле (доля лимонных леденцов выражается как 1-0). Если принято предположение, что все возможные значения долевого состава априорно являются равновероятными, то становится обоснованным подход на основе гипотезы с максимальным правдоподобием. Если мы промоделируем эту ситуацию с помо- 95! Глава 20.

Статистические методы обучения шью байесовской сети, то потребуется только одна случайная переменная, р2ат ок (разновидность конфеты, случайно выбранной из пакета). Эта переменная принимает значения спелтуи 2йте, где вероятность с)ветку равна 0 (рис. 20.2, а). Теперь предположим, что развернуто л) конфет, из которых с оказались вишневыми леденцами, а с=в)-с были лимонными леденцами. Согласно уравнению 20.3, правдоподобие этого конкретного набора данных выражается следую)цей формулой: Р(вт()вв) = П Р(с)З()вв) = 0' (1-9)' Гипотеза с максимальным правдоподобием задается значением О, которое максимизирует это выражение. Такое же значение может быть получено путем максимизации значения з.

логарифмического правдоподобия: Ъ(6))зв) = 1сд Р(6()зв) = ) 1од Р(д ()вв) = с)одв в Гасд(1 — О) э=1 (Взяв логарифмы, мы преобразовали произведение в сумму по данным, которую обычно легче максимизировать.) Чтобы найти значение максимального правдоподобия 8, дифференцируем г по 8 и приравняем полученное выражение к нулю следуюшим образом: 1 )зв) с с с — 0 =ь 0 = — =— 0 0 1-0 с+г Таким образом, если описать это выражение на естественном языке, то гипотеза с максимальным правдоподобием Лн, утверждает, что фактическая доля вишневых леденцов в пакете равна наблюдаемой доле этих леденцов в конфетах, развернутых до сих пор! На первый взгляд создается впечатление, что мы проделали большой объем работы лишь для того, чтобы открыть этот очевидный факт.

Но в действительности описанным выше путем был создан один из стандартных методов обучения параметрам с максимальным правдоподобием, который описан ниже. К Записать выражение для правдоподобия данных как функции от параметра (параметров). 2. Найти производную логарифмического правдоподобия по отношению к каждому параметру. 3. Найти такие значения параметров, чтобы производные стали равными нулю. Обычно самым сложным является последний из этих этапов.

В рассматриваемом примере он был простейшим, но ниже будет показано, что во многих случаях приходится прибегать к использованию итерационных алгоритмов поиска решений или других числовых методов оптимизации, как было описано в главе 4. Кроме того, этот пример иллюстрирует важную проблему, которая в целом характерна для обучения с учетом максимального правдоподобия: пв- если набор данных достаточно мал и поэтому некоторые события еще не наблюдались (например, не было обнаружено ни одной конгреты с вишневым леденцом), то гипотеза с максимальным правдоподобием 952 Часть ч?.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6458
Авторов
на СтудИзбе
304
Средний доход
с одного платного файла
Обучение Подробнее