Рассел С., Норвиг П. Искусственный интеллект. Современный подход (2-е изд., 2006) (1245267), страница 334
Текст из файла (страница 334)
Поэтому вполне можно было бы закончить этот раздел прямо сейчас, ответив положительно на вопрос, приведенный в его названии. Но философов интересует также проблема сравнения двух вычислительных архитектур — человека и машины. К тому же в философии существует давняя традиция поиска ответа на вопрос: Ъ. Могут ли машины мыслить? К сожалению, сам этот вопрос определен неправильно.
Для того чтобы понять, почему это так, рассмотрим приведенные ниже вопросы. ° Могут ли машины совершать полеты? ° Могут ли машины заниматься плаванием? Большинство людей согласятся, что ответ на первый вопрос является положительным, поскольку самолеты предназначены именно для того, чтобы совершать полеты, но ответят на второй вопрос отрицательно; корабли и подводные лодки движутся над водой и под водой, но это мы не называем занлгииями плаванием.
Тем не менее ни приведенные вопросы, ни ответы не оказывают никакого влияния на повседневную деятельность специалистов по аэронавтике и судоходству, а также на пользователей тех машин, которыми они управляют. К тому же ответы на эти вопросы никак не могут помочь лучше проектировать или расширять возможности самолетов и подводных лодок и в большей степени касаются выбора правильных способов словоупотребления. Слово "заниматься плаванием" (ззу)гп) в английском языке постепенно приняло смысл "продвигаться в воде за счет движений частей тела", а слово "совершать полеты" (бу) не налагает таких ограничений на выбор способов Часть \г(П.
Заключение 1250 передвижения'. Практическая возможность пользоваться услугами "мыслящих машин" предоставляется человеку в течение всего лишь 50 лет, а этого еще недостаточно для того, чтобы толкование слова "мыслить" распространилось и на машины. Алан Тьюринг в своей знаменитой статье "Согпри)!пя МасйгпеГу апг( !пгеПфепсе" [1520) указал, что вместо поиска ответа на вопрос, могут ли машины мыслить, мы должны интересоваться тем, могут ли машины пройти поведенческий тест интеллектуальности, который в дальнейшем получил название теста Тьюринга. Этот тест заключается в том, что программа в течение 5 минут участвует в разговоре (складываюьцемся из сообщений, которые передаются в оперативном режиме) с некоторым собеседником. Затем этот собеседник должен определить, проводился ли этот разговор с программой или с другим человеком; программа успев|но проходит тест, если ей удается обмануть собеседника в 30% случаев.
Тьюринг предсказал, что к 2000 году компьютер с объемом памяти в 10' единиц удастся запрограммировать настолько успешно, чтобы он прошел этот тест, но оказался неправ. Некоторых людей еще раньше удавалось водить за нос в течение 5 минут; например, программа Е!1га и чатбот (робот-собеседник) Мйопх, действующий в 1пгегпец не раз обманывали людей, которые так и не могли понять, что они обшаются с программой, а программа Айсе смогла даже одурачить судью на соревнованиях за приз Лебнера ().оеЬпег Рпге) 2001 года. Но ни одной программе не удалось приблизится к 30%-ному критерию в борьбе против специально обученных судей, да и в самой области искусственного интеллекта тесту Тьюринга уделяют все меньше внимания.
Тьюринг также исследовал широкий перечень вероятных возражений против самой возможности создания интеллектуальных машин, в том числе сумел предвидеть практически все возражения, которые были выдвинуты в течение полувека, прошедшего со времени появления его статьи. В этой главе будут рассмотрены некоторые из них. Довод, исходящий иэ неспособности В "доводе, исходящем из неспособности", выдвигается претензия, что "машина никогда не сможет выполнить действие Х". В качестве примеров действий Х Тьюринг приводит следующий список. Быть добрым, щедрым, красивым, дружелюбным, инициативным, иметь чувство юмора, отличать правду от лжи, совершать ошибки, влюбляться, наслаждаться земляникой и мороженым, заставлять влюбляться в себя, учиться на опыте, правильно употреблять слова, быть предметом собственных мыслей, проявлять такое же разнообразие в поведении, как и человек, создавать действительно что-то новое.
Тьюрингу пришлось воспользоваться своей интуицией для выдвижения предположений о том, что будет возможно в будущем, а мы имеем счастливую возможность оглянуться назад, чтобы узнать, чего уже удалось добиться компьютерам. Нельзя отрицать, что компьютеры в наши дни выполняют многие действия, которые раньше были прерогативой одних лишь людей. Программы играют в шахматы, шашки и другие игры, контролируют детали на сборочных конвейерах, проверяют правописание в документах, введенных с помощью текстового редактора, водят автомобили ' В русском языке эквивалент английского слова "звпп" пе носит такого ограничительного оттенка, поэтому может применяться и к судам. Глава 26. Философские основания 1251 и вертолеты, диагностируют заболевания, а также выполняют сотни других работ столь же хорошо, как люди, или даже лучше.
Компьютеры сделали небольшие, но важные открытия в астрономии, математике, химии, минералогии, биологии, компьютерных науках и других областях. В каждом из этих случаев требовалось обладать способностями на уровне человека-эксперта. С учетом того что мы знаем о компьютерах, не удивительно, что они легко справляются с такими комбинаторными задачами, как игра в шахматы. Но алгоритмы действуют также на уровнях не ниже человека при решении таких задач, которые, на первый взгляд, не позволяют обойтись без человеческого суждения или, как выразил это Тьюринг, заставляют "учиться на опыте" и требуют наличия способностей "отличать правду от лжи". Егде в 1955 году Пауль Мель [1032[ (см. также [6001) изучал процессы принятия решений обученными экспертами как субъективные задачи, аналогичные прогнозированию успешного овладения студентом программы обучения или повторного совершения преступления рецидивистом.
В 19 из 20 рассмотренных им исследований Мель обнаружил, что простые алгоритмы статистического обучения (такие как алгоритмы линейной регрессии или наивные байесовские алгоритмы) вырабатывают лучшие предсказания, чем люди-эксперты. В американской Службе образовательного тестирования (Ег)цса))опа! Тевбпя Бегчсе) с 1999 года использовалась автоматизированная программа для выставления оценок по обзорным вопросам на экзаменах ОМАТ. Результаты работы программы согласовывались с результатами работы экзаменаторов, которым было поручено выставлять такие оценки, в 97% случаев, а этот уровень соответствует совпадению оценок двух экзаменаторов [212[.
Очевидно, что компьютеры могут выполнять многие действия столь же успешно или даже лучше, чем люди, включая такие работы, в которых, по мнению людей, требуется огромная человеческая прозорливость и понимание. Это, безусловно, не означает, что компьютеры при выполнении этих работ проявляют прозорливость и понимание (указанные свойства не входят в состав поведения, о чем будет сказано ниже), но суть заключается в том, что первые предположения о содержании мыслительных процессов, требуемых для выработки данного конкретного поведения, часто оказываются ложными.
Безусловно, верно также то, что во многих областях компьютеры все е)це не добились значительного успеха (это еще мягко сказано), включая поставленную Тьюрингом задачу ведения разговора на свободную тему. Возражения, основанные на принципах математики Благодаря работам Тьюринга [1518[ и Геделя [566[ широко известно, что на некоторые математические вопросы нельзя даже в принципе найти ответ в рамках конкретных формальных систем. При этом наибольшую известность получила теорема Геделя о неполноте (см. раздел 9.5). Кратко эту теорему можно сформулировать таким образом: для любой формальной аксиоматической системы Е; достаточно мошной для того, чтобы в ней можно было представить арифметику, возможно сконструировать так называемое "предложение Геделя" о ( Р) с описанными ниже свойствами.
° а (к) — это предложение системы к, но оно не может быть доказано в рамках ж ° Если система к является непротиворечивой, то предложение а(к) — истинно. Философы, в том числе Дж. Р. Лукас [960), утверждали, что эта теорема показывает, будто машины как мысля)цие субъекты всегда будут стоять ниже людей, по- 1252 Часть Ч!!1. Заключение скольку машины — это формальные системы, ограниченные в силу теоремы о неполноте (они не способны установить истинность относящегося к ним самим предложения Геделя), а люди не имеют такого ограничения.
Споры вокруг данного утверждения продолжались несколько десятилетий и породили огромное количество литературы, в том числе две книги математика сэра Роджера Пенроуза [! 204), (! 205), повторившего это утверждение с некоторыми новыми выкрутасами (такими как гипотеза, согласно которой человек отличается от машины, поскольку его мозг действует на основе квантовой гравитации). В этой главе мы рассмотрим только три из основных проблем, связанных с этим утверждением.
Во-первых, теорема Геделя о неполноте распространяется только на формальные системы, достаточно мощные для того, чтобы в них можно было представить арифметику. К таким формальным системам относятся машины Тьюринга, поэтому утверждение Лукаса частично основано на том предположении, что компьютеры представляют собой машины Тьюринга. Это — хорошая аппроксимация, но не совсем оправданная. Машины Тьюринга являются бесконечными, а компьютеры конечны, поэтому любой компьютер может быть описан как (очень большая) система в пропозициональной логике, на которую не распространяется теорема Геделя о неполноте. Во-вторых, агенту не следует стыдиться того, что он не может определить истинность некоторого высказывания, тогда как другие агенты могут.
Рассмотрим приведенное ниже предложение. Дж.Р. Лукас не может неоспоримо утверждать, что это предложение истинно. Если бы Лукас подтвердил истинность этого предложения, то он бы противоречил самому себе, поэтому Лукас не может неоспоримо подтвердить истинность данного предложения, а это означает, что оно должно быть истинным. (Это предложение не может быть ложным, поскольку, если бы Лукас не мог неоспоримо его подтвердить, то оно было бы истинным.) Таким образом, мы продемонстрировали, что есть такое предложение, которое Лукас не может неоспоримо подтвердить, тогда как другие люди (и машины) могут.