Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267), страница 15
Текст из файла (страница 15)
Минский руководил работой ряда студентов, выбравших для себя задачи ограниченных масштабов, для решения которых, как в то время казалось, требовалась интеллектуальность. Эти ограниченные проблемные области получили название Ъ. микромиров. 59 Глава 1. Введение Программа Ба!и! Джеймса Слэгла [1426] оказалась способной решать задачи интеграции в исчислении замкнутой формы, типичные для первых курсов колледжей. Программа Апа!ойу Тома Эванса [448] решала задачи выявления геометрических аналогий, применяемые при проверке показателя интеллекта, аналогичные приведенной на рис.
1.2. Программа Бгпоепг Дэниэла Боброва [142] решала изложенные в виде рассказа алгебраические задачи, подобные приведенной ниже. относится к как относится к: Рис. 1.2. Лример задачи, решаемой программой Апагоеу Эванса Если количество заказов, полученных Томом, вдвое превышает квадратный корень из 20% опубликованных им рекламных объявлений, а количество этих рекламных объявлений равно 45, то каково количество заказов, полученных Томом? Наиболее известным примером микромира был мир блоков, состоящий из множества цельных блоков, размещенных на поверхности стола (или, что более часто, на имитации стола), как показано на рис. ! .3.
Типичной задачей в этом мире является изменение расположения блоков опрелеленным образом с использованием манипулятора робота, который может захватывать по одному блоку одновременно. Мир блоков стал основой для проекта системы технического зрения Дэвида Хаффмена [702], работы по изучению зрения и распространения (удовлетворения) ограничений Дэвида Уолтса [1552], теории обучения Патрика Уинстона [1602], программы понимания естественного языка Тэрри Винограда [1601] и планировщика в мире блоков Скотта Фалмана [450]. Бурно продвигались также исследования, основанные на ранних работах по созданию нейронных сетей Мак-Каллока и Питтса. В работе Винограда и Коуэна [1600] было показано, как нужно представить отдельную концепцию с помощью коллекции, состоящей из большого количества элементов, соответственно увеличивая надежность и степень распараллеливания их работы.
Методы обучения Хебба были усовершенствованы в работах Берии Видроу [!587], [1586], который называл свои сети адалииами, а также Френка Розенблатта [1304], создателя перцептронов. Розенблатт доказал теорему сходимости перцептрона, которая подтверждает, что предложенный им алгоритм обучения позволяет корректировать количество соединений перцептрона в соответствии с любыми входными данными, при условии, что такое соответствие существует. Эта тема рассматривается в главе 20.
Глава 1. Введение 61 первых работ по машинному переводу текста на естественном языке, которые щедро финансировались Национальным научно-исследовательским советом США (()5. Ха!!опа! ВезеагсЬ Соцпс11) в попытке ускорить перевод советских научных статей во время того периода бурной деятельности, который начался вслед за запуском в СССР первого искусственного спутника Земли в 1957 году.
Вначале считалось, что для сохранения точного смысла предложений достаточно провести простые синтаксические преобразования, основанные на грамматиках русского и английского языков, и замену слов с использованием электронного словаря. Но дело в том, что для устранения неоднозначности и определения смысла предложения в процессе перевода необходимо обладать общими знаниями о предметной области. Возникающие при этом сложности иллюстрируются знаменитым обратным переводом фразы ЗЬе зр!пЗ !з ~ч!!1! пя Ьщ гйе Пезй |з юеа!с" (дух полон желаний, но плоть слаба), в результате которого получилось следующее: ЗЬе чосПга В аоод Ьц! гйе гпеаг 1з го!!ел" (водка хороша, но мясо испорчено). В 1966 году в отчете одного консультативного комитета было отмечено, что "машинный перевод научного текста общего характера не осуществлен и не будет осугцестален в ближайшей перспективе".
Все финансирование академических проектов машинного перевода правительством США было свернуто. В настоящее время машинный перевод является несовершенным, но широко применяемым инструментальным средством обработки технических, коммерческих, правительственных документов, а также документов, опубликованных в 1пгегпег. Сложности второго рода были связаны с неразрешимостью многих проблем, решение которых пытались найти с помощью искусственного интеллекта. В большинстве ранних программ искусственного интеллекта решение задач осуществлялось по принципу проверки различных комбинаций возможных шагов, которая проводилась до тех пор, пока не будет найдено решение.
На первых порах такая стратегия приводила к успеху, поскольку микромиры содержали очень небольшое количество объектов, поэтому предусматривали лишь незначительный перечень возможных действий и позволяли находить очень короткие последовательности решения. До того как была разработана теория вычислительной сложности, было широко распространено такое мнение, что для "масштабирования" задач до уровня более крупных проблем достаточно просто применить более быстродействующие аппаратные средства с большим объемом памяти. Например, оптимизм, с которым были встречены сообщения о разработке метода доказательства теорем с помощью резолюции, быстро угас, когда исследователи не смогли доказать таким образом теоремы, которые включали чуть больше нескольких десятков фактов.
Как оказалось, св. то, что программа может найти решение в приниипе, не означает, что зта программа действительно содержит все механизмы, позволяюи!ие найти данное решение на практике. Иллюзия неограниченной вычислительной моши распространялась не только на программы решения задач. Ранние эксперименты в области 'дх эволюции машин (которая теперь известна под названием разработка генетических алгоритмов) [502), [503[ были основаны на уверенности в том, что внесение соответствующего ряда небольших изменений в машинный код программы позволяет создать программу решения любой конкретной простой задачи, обладающую высокой производительностью.
Безусловно, что сам этот подход является вполне обоснованным. Поэтому общая идея состояла в том, что необходимо проверять случайные мугации (изменения в коде) с помощью процесса отбора для сохранения мутаций, которые кажутся полезными. На эти эксперименты было потрачено тысячи часов процессорного време- 62 Часть 1.
Искусственный интеллект ни, но никаких признаков прогресса не было обнаружено. В современных генетических алгоритмах используются лучшие способы представления, которые показывают более успешные результаты. Одним из основных критических замечаний в адрес искусственного интеллекта, содержащихся в отчете Лайтхилла )930), который лег в основу решения британского правительства прекратить поддержку исследований в области искусственного интеллекта во всех университетах, кроме двух, была неспособность справиться с "комбинаторным взрывом" — стремительным увеличением сложности задачи. (Это — официальная версия событий, а в устном изложении рисуется немного иная и более красочная картина, в которой проявляются политические амбиции и личные интересы, описание которых выходит за рамки данного изложения.) Сложности третьего рода возникли в связи с некоторыми фундаментальными ограничениями базовых структур, которые использовались для выработки интеллектуального поведения.
Например, в книге Минского и Пейперта Регсерггот )1054] было доказано, что перцептроны (простая форма нейронной сети) могут продемонстрировать способность изучить все, что возможно представить с их помощью, но, к сожалению, они позволяют представить лишь очень немногое.
В частности, перцептрон с двумя входами нельзя обучить распознаванию такой ситуации, при которой на два его входа подаются разные сигналы. Хотя полученные этими учеными результаты не распространяются на более сложные, многослойные сети, вскоре было обнаружено, что финансы, выделенные на поддержку исследований в области нейронных сетей, почти не приносят никакой отдачи. Любопытно отметить, что новые алгоритмы обучения путем обратного распространения для многослойных сетей, которые стали причиной возрождения необычайного интереса к исследованиям в области нейронных сетей в конце 1980-х годов, фактически бьши впервые открыты в 1969 году ) 201]. Системы, основанные на знаниях: могут ли они стать ключом к успеху (период с 1969 года по 1979 год) Основной подхол к решению задач, сформированный в течение первого десятилетия исследований в области искусственного интеллекта, представлял собой механизм поиска общего назначения, с помощью которого прелпринимались попытки связать в единую цепочку элементарные этапы проведения рассуждений для формирования полных решений.
Подобные подходы получили название з. слабых методов, поскольку они не позволяли увеличить масштабы своего применения до уровня более крупных или более сложных экземпляров задач, несмотря на то, что были общими. Альтернативным по сравнению со слабыми методами стал подход, предусматривающий использование более содержательных знаний, относящихся к проблемной области, который позволяет создавать более длинные цепочки шагов логического вывода и дает возможность проще справиться с теми проблемными ситуациями, которые обычно возникают в специализированных областях знаний. Как известно, чтобы решить достаточно сложную задачу, необходимо уже почти полностью знать ответ. Одним из первых примеров реализации такого подхода была программа Оепг)га! [205).
Она была разработана в Станфордском университете группой ученых, в которую вошли Эд Фейгенбаум (бывший студент Герберта Саймона), Брюс Бьюкенен Глава 1. Введение 63 (философ, который сменил специальность и стал заниматься компьютерными науками) и Джошуа Ледерберг (лауреат Нобелевской премии в области генетики). Эта группа занималась решением проблемы определения структуры молекул на основе информации, полученной от масс-спектрометра. Вход этой программы состоял из химической формулы соединения (например, С,Н„ИО,) и спектра масс, позволяющего определять массы различных фрагментов молекулы, который формировался при бомбардировке молекулы потоком электронов.
Например, спектр масс может содержать пик в точке т=15, соответствующий массе метилового фрагмента (сн,). Первая, примитивная версия этой программы предусматривала выработку всех возможных структур, совместимых с данной формулой, после чего предсказывала, какой спектр масс должен наблюдаться для каждой из этих структур, сравнивая его с фактическим спектром. Вполне можно ожидать, что такая задача применительно к молекулам более крупных размеров становится неразрешимой. Поэтому разработчики программы Репс[га! проконсультировались с химиками-аналитиками и пришли к выводу, что следует попытаться организовать работу по принципу поиска широко известных картин расположения пиков в спектре, которые указывают на наличие общих подструктур в молекуле. Например, для распознавания кетоновых подгрупп (С=О) с атомными весами 28 может использоваться приведенное ниже правило.