Диссертация (1148966), страница 22
Текст из файла (страница 22)
Намерение в действииплемянника заключалось в том, чтобы управлять своим автомобилем, и было лиэто управление осознанным или автоматическим, никак не изменяло того, чтопобочным, неожиданным эффектом стал сбитый пешеход. В любом случаеплемянник не знал, что пешеход это дядя. Однако про скалолаза Дэвидсона мы неможем сказать, что он не знал о том, что ослабление хватки веревки приведет кжелаемому им инциденту, иначе говоря, мы не могли строить защиту илиобвинение скалолаза с эпистемологических позиций, так как он обладал146Деннет Д. Виды психики: На пути к пониманию сознания. М., 2004. С. 27-44.100правильным и полным представлением о сложившейся ситуации. Мы пришли квыводу, что судить о действиях скалолаза нужно исходя из того, что его планпривел к исполнению задуманного, а всякие попытки проследить причинноследственную цепочку внутри его нервной системы ведут лишь к абсолютизациироли отдельных областей мозга скалолаза, хотя объектом моральной оценкивыступают личности, а не их отдельные части.
Компатибилистская теориясвободы вполне может справиться со случаями заблудшей причинности, однакокаждый тип такой причинности требует отдельного анализа.§ 3. Искусственный моральный субъектПроект описания субъекта морального выбора как биологической системы,подчинённой физическим законам, приводит к вопросу о том, можно ли создатьтакой неорганический субъект.. Если все события в мире детерминированыфизическимизаконами,тонетоснованийполагать,чтоневозможносконструировать физическую систему, которая будет обладать теми жекомпетенциями, что и уже существующие системы. Можно ли создать такуюмашину, по отношению к которой было бы уместно испытывать возмущение,благодарность и которая была бы адекватным объектом наказания за аморальныепоступки? Если бы такая машина была возможна, то главной задачей стало бывоспроизведение центра принятия решений, подобного человеческому разуму, ане создание искусственных систем, функционально идентичных органам,отвечающимзакровообращение,пищеварениеит.п.Поисквиновныхподразумевает, что мы найдем того, кто задумал то или иное преступление, а нетолько того, кто его исполнил.
Личность заказчика, как правило, важнее личностиисполнителя или способа исполнения. Поэтому вопрос создания искусственногоморального агента на деле является вопросом искусственного интеллекта.Проектыпосозданиюпреимущественновискусственногообластиинтеллектакомпьютерныхсегоднятехнологий.реализуютсяИскусственныйинтеллект должен уметь совершать моральный выбор, чтобы именно он, а не его101создатель, мог нести абсолютную ответственность за последствия этого выбора.Одним из условий решения такой задачи представляется наличие надежногокритерия для определения искусственного интеллекта. Самым известныминструментом для определения разумности машины на сегодня является тестТьюринга.
В этом параграфе анализируются причины провала всех попытоксоздать программу, проходящую тест Тьюринга. Несмотря на грандиозныйпрогресс в области информационных технологий существующие компьютеры нев состоянии поддерживать с нами разговор. Обосновывается, что для диалоганеобходимымусловиемвыступаетопределенныйуровенькреативности,отсутствующий у вычислительных машин. Обсуждается специальный тестЛавлейс,предназначенныйдлявыявлениятворческихспособностейукомпьютеров. Мы будем утверждать, что, во-первых, машина, не прошедшая тестЛавлейс, не сможет пройти и тест Тьюринга.
Во-вторых, что без прохождениятеста Лавлейс мы не можем считать машины участниками моральных систем ивсегда сможем переложить ответственность за работу машины на её создателя.В середине ХХ века в связи с началом производства ЭВМ спор о том, могутли машины обладать интеллектом, вспыхнул с новой силой. Алан Тьюринг, встремлении как-то упорядочить дискуссию, предложил свой бихейвиористскиориентированный тест147. Этот тест должен был помочь выяснить, обладают лицифровые компьютеры интеллектом. Сам Тьюринг называл свой тест «игройимитацией», суть которой состояла в том, что судья в ходе опосредованногодиалога с компьютерной программой чат-ботом и человеком должен выяснить,кто есть кто. Программа (создатели программы) выиграет имитационную игру,если судья примет её речь за речь человека. Мы не будем анализироватьизвестные проблемы и недостатки самого теста, то есть ставить вопрос о том,действительно ли ТТ (здесь и далее тест Тьюринга) может определить наличие умашины искусственного интеллекта/разума/сознания.
Мы рассмотрим тест147Тьюринг А. М. Вычислительные машины и разум // Хофштадер Д., Деннет Д. Глаз разума.Самара: Бахрах-М, 2003.102нейтрально, как имитационную игру, в которой почему-то в подавляющем числеслучаев побеждает одна и та же сторона – судьи.Более десяти лет прошло с тех пор, как по прогнозам Тьюрингавычислительные машины могли бы начать проходить предложенный им тест.Однако имеющиеся на сегодняшний день результаты можно смело назватьудручающими.
Лучшие программы из представляемых на ежегодном конкурсеЛёбнера не обладают разговорными навыками и на уровне малолетнего ребенка.В этом можно легко убедиться самостоятельно, так как эти разговорныепрограммы широко представлены в интернете. По утверждению Деннета,программисты сегодня даже и не надеются на выигрыш основного приза, которыйдолжен достаться программе, прошедшей ТТ: вся борьба идет за то, чтобы статьлучшим из худших за счёт несложных технических ухищрений и примитивныхсловесных уловок148.Иногдавкачестведоказательствавысокихразговорныхнавыковкомпьютера приводят тексты удачно сложившихся диалогов, которые, если ихчитать непредвзято, вполне могут быть восприняты как протоколы обычнойбеседы. Проблема с такими «беседами» в том, что они единичны относительноогромного числа откровенно бессвязных диалогов.
ТТ может считатьсяпройденным, только если ЭВМ будет стабильно хорошо играть в имитационнуюигру. Случайно обмануть судью могут и гораздо более простые устройства. Кпримеру, лист бумаги с написанными на нём тематически связанными фразами,которые по очереди транслируются судье. Мы можем предположить, что раноили поздно вопросы одного из судей сложатся с фразами, написанными на листке,в мозаику диалога149.148Примеры таких уловок см. Hutchens J. How to pass the turing test by cheating // URL:agent.ai/doc/upload/200403/hutc97_1.pdf (дата обращения: 05.01.2012).149В 1997 году приз Лёбнера выиграла программа, разработчики которой применили похожуюна описанную стратегию, и которая каждый разговор с судьями начинала с провокационноговопроса: «Вы видели прошлым вечером эту историю на СиЭнЭн о появившейся на вечеринке вБелом Доме лесбийской паре?», Saygin A., Cicekli I., Akman V.
Turing Test: 50 years later //Minds and Machines. 2000. Vol. 10 No.4, p. 506. Затем программа последовательнопроговаривала заранее заготовленные реплики практически вне зависимости от реакции судьи.103Несмотря на столь плачевное состояние дел, иногда по-прежнемуобсуждается значение возможного выигрыша программы в имитационной игре150.А ведь это можно было бы и отложить до лучших времен, так как вполнесправедливо выглядит мысль о том, что знания, позволяющие добитьсяпрохождения ТТ, также позволят нам совершенно иначе смотреть на проблемуискусственного интеллекта151.
Сегодня продуктивней заняться исследованиями,учитывающими эмпирически установленный факт (пусть даже и негативный)провала всех попыток пройти ТТ. Тем более это актуально в силу того, что ужеочевидным образом не осталось технической отговорки о недостаточноймощности имеющихся ЭВМ.Напрашивающимся, но бесполезным объяснением провала ТТ было быследующее: Тьюринг придумал тест для проверки компьютеров на наличиеинтеллекта, и компьютеры этот тест не прошли, следовательно, интеллектом онине обладают.
Такое легкое prima facie объяснение нам не подходит потому, чтооно подразумевает адекватность ТТ для выявления искусственного интеллекта.Если мы хотим сохранить метафизическую нейтральность относительно ТТ,необходимо отыскать другие причины неудовлетворительного качества текста,генерируемого программами в ходе игры-имитации.Для большей наглядности наших поисков обратимся к знаменитомумыслительному эксперименту китайской комнаты (далее КК)152.
Аргумент ККнаправлен на опровержение значения ТТ, но мы используем его лишь какиллюстрацию модели работы вычислительной машины и её программы. Ниже ККи программы для игры-имитации будут для нас взаимозаменяемыми понятиями.Согласно Сёрлу КК – это помещение, в котором находится человек-оператор, нислова не понимающий по-китайски, гигантский набор рассортированных поразным корзинкам карточек с китайскими иероглифами и инструкция на150Searle J.R. The Turing Test: fifty- five years // Epstein R., Roberts G., Beber G. Parsing the TuringTest. New York: Springer, 2008.
P.139.151Moor J. An analysis of turing’s test // Philosophical Studies. 1976. No.30.152Сирл Дж. Разум, мозг и программы // Хофштадер Д., Деннет Д. Глаз разума. Самара: БахрахМ, 2003.104понятном оператору языке, где указано, как нужно сочетать различныеиероглифы. Извне поступают листы с иероглифами, которые операторобрабатывает в соответствии с инструкциями.
Запрограммированные ответы невсегда должны быть правильными и точными, если спрашивают «Куда впадаетВолга?», то инструкции в целях правдоподобия могут предписывать ответить«Точно не помню. Я географию не учил».Игра-имитация проходит успешно, пока судья задает КК вопросы, ответына которые предусмотрены153. Неприятности начинаются, когда судьяспрашивает то, что не было заранее запрограммированно. Если оператор получаетнабор иероглифов или иероглиф, отсутствующий в инструкции, он не сможетответить подобающим образом.
На такой случай может быть приготовлен ответ«я не понял» или его вариации, но такие ответы не выручат КК несколько разподряд. Да и уже при первом использовании вызовут подозрение, если ответ «я непонял» будет дан на вопрос о чем-то обыденном, но не занесённом в базу данных.Как создатель может решить проблему появления высказываний, ответы накоторые не предусмотрены? Таких способов два. Первый способ – этомаксимально расширить базу данных, то есть попытаться заранее прописать всевопросы. Второй способ – это сделать такую программу, которая бы самагенерировала человекоподобный текст на основе имеющихся данных и входящихсигналов, иначе говоря, создать креативную КК.Первый способ – предвосхищение всех вопросов – обладает темпреимуществом, что не требует кардинальных изменений в архитектуре ЭВМ, всёчто требуется, это расширение объема доступной для оператора информации. Напрактике ни один из таких проектов специального накачивания программыданными не привел к успеху, возможно потому, что прирост новой информации вмире происходит быстрее, чем занесение её в базы данных.
Опережающийприрост знания могла бы решить технология наподобие Siri, применяющая в153Исключение могут составить ситуации, где был важен контекст вопроса, так какраспознавание контекстуальных отсылок – это слабое место вычислительных машин. Чтобы неусложнять ситуацию, согласимся с тем, что если правильная реакция на запрос ужепредусмотрена в программе, то она выдаст правильный ответ.105новых смартфонах Apple для обработки голосовых запросов. Siri понимаетголосовые запросы, использует интернет как базу данных и облекаетпочерпнутую оттуда информацию в привычную нам форму. Таким образом,информация пополняется в реальном времени миллионами людей, а доступныйпрограмме объем информации несопоставимо превосходит знания отдельногочеловека. Но и Siri не может поддерживать сколько-нибудь внятную беседу, таккак в интернете в каждый момент времени нет всего того, что мы могли быспросить.