Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267), страница 17
Текст из файла (страница 17)
Этот алгоритм был применен для решения многих проблем обучения в компьютерных науках и психологии, а после публикации результатов его использования в сборнике статей РагаНе! 0а)НЬигег( Рпкезхт8 [1318] всеобщее внимание привлек тот факт, насколько разнообразными оказались области его применения. Эти так называемые 'в.
кониекционистские (основанные на соединениях) модели интеллектуальных систем многими рассматривались как непосредственно конкурирующие и с символическими моделями, разрабатываемыми Ньюзллом и Саймоном, и с логицистским подходом, предложенным Маккарти и другими [1442]. Повидимому, не следует отрицать, что на некотором уровне мышления люди манипулируют символами; и действительно, в книге Терренса Дикона под названием ТЬе 5утЬойс,УРесгез [354] указано, что способность манипулировать символами — определяющая характеристика человека, но наиболее горячие сторонники коннекционизма поставили под сомнение то, что на основании манипулирования символами действительно можно полностью объяснить какие-то познавательные процессы в подробных моделях познания. Вопрос остается открытым, но современный взгляд на эту проблему состоит в том, что коннекционистский и символический подходы являются взаимодополняющими, а не конкурирующими.
Превращение искусственного интеллекта в науку (период с 1987 года по настоящее время) В последние годы произошла буквально революция как в содержании, так и в методологии работ в области искусственного интеллекта". В настоящее время гораздо чаще встречаются работы, которые основаны на существующих теориях, а не содержат описания принципиально новых открытий; утверждения, изложенные в этих работах, основаны на строгих теоремах или надежных экспериментальных свидетельствах, а не на интуиции; при этом обоснованность сделанных выводов подтверждается на реальных практических приложениях, а не на игрушечных примерах.
Появление искусственного интеллекта отчасти стало результатом усилий по преодолению ограничений таких существующих научных областей, как теория управления и статистика, но теперь искусственный интеллект включил в себя и зти области. В одной из своих работ Дэвид Макаллестер [1006] выразил эту мысль следующим образом. В ранний период развития искусственного интеллекта казалось вероятным, что в результате появления новых форм символических вычислений', например фреймов и семантиче- " Некоторые охарактеризовали эту смену подходов как победу теоретиков (тех, кго считает, что теории искусственного интеллекта должны быть основаны нэ строгих математических принципах) нэд эксверимеитэторамв (теми, кто предпочитает проверить множество идей, написать какие-то программы, а затем оценить те из них, которые кажутся работоспособными).
Оба подхода являются важными. А смещение акцентов в пользу теоретической обоснованности свидетельствует о тоы, что данная область достигла определенного уровня стабильности и зрелости. Будет ли когда-либо такая стабильность нарушена новой идеей, родившейся в экспериментах, — это другой вопрос. Глава 1. Введение 67 ских сетей, основная часть классической теории станет устаревшей.
Это привело к определенной форме самоизоляции, характеризовавшейся тем, что искусственный интеллект в значительной степени отделился от остальной части компьютерных наук. В настоящее время такой изоляционизм преодолен. Появилось признание того, что машинное обучение не следует отделять от теории информации, что проведение рассуждений в условиях неопределенности нельзя изолировать от стохаетического моделирования, что поиск не следует рассматривать отдельно от классической оптимизации и управления и что автоматизированное формирование рассуждений не должно трактоваться как независимое от формальных методов и статистического анализа. С точки зрения методологии искусственный интеллект наконец-то твердо перешел на научные методы.
Теперь, для того чтобы быть принятыми, гипотезы должны подвергаться проверке в строгих практических экспериментах, а значимость результатов должна подтверждаться данными статистического анализа [275]. Кроме того, в настоящее время имеется возможность воспроизводить эксперименты с помощью !и!егпеГ, а также совместно используемых репозитариев тестовых данных и кода. Именно по этому принципу развивается область распознавания речи. В 1970-е годы было опробовано широкое разнообразие различных архитектур и подходов. Многие из них оказались довольно надуманными и недолговечными и были продемонстрированы только на нескольких специально выбранных примерах.
В последние годы доминирующее положение в этой области заняли подходы, основанные на использовании скрытых марковских моделей (НиЫеп МагКоч Мобе! — НММ). Описанное выше современное состояние искусственного интеллекта подтверждается двумя особенностями моделей НММ. Во-первых, они основаны на строгой математической теории.
Это позволяет исследователям речи использовать в своей работе математические результаты, накопленные в других областях за несколько десятилетий. Во-вторых, они получены в процессе обучения программ на крупном массиве реальных речевых данных. Это гарантирует обеспечение надежных показателей производительности, а в строгих слепых испытаниях модели НММ неизменно улучшают свои показатели. Технология распознавания речи и связанная с ней область распознавания рукописных символов уже совершают переход к созданию широко применяемых индустриальных и потребительских приложений.
Нейронные сети также следуют этой тенденции. Основная часть работ по нейронных сетям, осуществленных в 1980-х годах, была проведена в попытке оценить масштабы того, что должно быть сделано, а также понять, в чем нейронные сети отличаются от "традиционных" методов. В результате использования усовершенствованной методологии и теоретических основ исследователи в этой области достигли такого уровня понимания, что теперь нейронные сети стали сопоставимыми с соответствующими технологиями из области статистики, распознавания образов и машинного обучения, а наиболее перспективная методология может быть применена к каждому из этих приложений. В результате этих разработок была создана так называемая технология 'э. анализа скрытых закономерностей в данных (г[ата ппшпй), которая легла в основу новой, быстро растущей отрасли информационной индустрии.
Знакомство широких кругов специалистов с книгой Джуди Перла РюЬаЬг!гйггс Яеазотл8 т 7лге!!гйепг Лузгал [1191] привело к признанию важности теории вероятностей и теории решений для искусственного интеллекта, что последовало за возрождением интереса к этой теме, вызванной статьей Питера Чизмана !л Юе~елзе оу РгоЬаЫ!ггу [242]. Для обеспечения эффективного представления неопределенных Часть 1.
Искусственный интеллект знаний и проведения на их основе строгих рассуждений были разработаны формальные средства байесовских сетей. Этот подход позволил преодолеть многие проблемы систем вероятностных рассуждений, возникавшие в 1960-1970-х ггц теперь он стал доминирующим в таких направлениях исследований искусственного интеллекта, как формирование рассуждений в условиях неопределенности и экспертные системы. Данный подход позволяет организовать обучение на основе опыта и сочетает в себе лучшие достижения классического искусственного интеллекта и нейронных сетей.
В работах Джуди Перла [1186], а также Эрика Горвица и Дэвида Хекермана )688], )689] была развита идея нормативных экспертных систем. Таковыми являются системы, которые действуют рационально, в соответствии с законами теории решений, а не пытаются имитировать мыслительные этапы в работе люлей- экспертов. Операционная система %1пг)оэгз™ включает несколько нормативных диагностических экспертных систем, применяемых для устранения нарушений в работе. Эта область рассматривается в главах! 3 — 16. Аналогичные бескровные революции произошли в области робототехники, компьютерного зрения и представления знаний. Благодаря лучшему пониманию исследовательских задач и свойств, обусловливающих их сложность, в сочетании с всевозрастающим усложнением математического аппарата, удалось добиться формирования реальных планов научных исследований и перейти к использованию более надежных методов.
Но во многих случаях формализация и специализация привели также к фрагментации направлений, например, такие темы, как машинное зрение и робототехника, все больше отделяются от "основного направления" работ по искусственному интеллекту. Снова добиться объединения этих разрозненных областей можно на основе единого взгляда на искусственный интеллект как науку проектирования рациональных агентов. Появление подхода, основанного на использовании интеллектуальных агентов (период с 1995 года по настоящее время) Вдохновленные успехами в решении указанных проблем искусственного интеллекта, исследователи также вновь приступили к решению проблемы "целостного агента".