Диссертация (1148978), страница 35
Текст из файла (страница 35)
«Сейчас на российских дорогах гибнутдесятки тысяч человек, с распространением беспилотного транспорта ихчисло снизится до сотен, а потом и до единиц. В этом смыслесамоуправляемый автомобиль априори морален. Он всегда сосредоточен надороге, у него есть исчерпывающая информация, он может получать данныеот других транспортных средств и элементов дорожной инфраструктуры»2.Для машин с ИИ самой распространенной дилеммой будет дилеммавагонетки: «Представьте, что по рельсам несётся тяжёлая неуправляемая1Preliminary Draft Report of Comest on Robotics Ethics: [preliminary repot; Электронный ресурс].
–WorldComission on the Ethics of Scientific Knowledge and Technology (COMEST), 5 August 2016. P. 16 - Режимдоступа: http://unesdoc.unesco.org/images/0024/002455/245532E.pdf (дата обращения: 27.12.2016)2Береснева Е. Мораль для роботов // Журнал « Кот Шрёдингера» 21.10.2016. URL:https://rg.ru/2016/09/21/kak-bespilotnye-avtomobili-budut-reshat-voprosy-zhizni-i-smerti.html (дата обращения:27.12.2016).192вагонетка и на пути у неё пять человек, привязанных к рельсам. У вас естьвозможность нажать на рычаг и перевести стрелку на другой путь, гдечеловек всего один. Вопрос в том, будете ли вы это делать. Правильного инеправильного решения у моральных дилемм не существует. Приверженцыутилитарного подхода считают правильным спасать как можно большежизней, другие говорят о недопустимости вмешательства и совершенияубийства своими руками»1.
Если в самой машине сидит один человек, аситуация на дороге складывается таким образом, что, убив пассажира,автомобиль спасет 3 жизни, он. Согласно заложенной в него программе,разобьется вместе с пассажиром. На данный момент это наиболеераспространенная, консенсусная версия решения этой дилеммы длябеспилотных автомобилей. «Моральная дилемма для беспилотника будетредчайшим случаем. У самого автомобиля морали нет, конечно, ондействует по заданным ему критериям.
И в данном случае это должен бытькритерий минимизации ущерба»2.Ученые из Массачусетского технологического института задалисьподобным вопросом: как люди относятся к решению моральных дилемм, вчастности, дилемме вагонетки, в которых участвует самоуправляемыемашины. Они создали опрос, в котором человек должен высказать своесуждение о том, что в каждой конкретной дилемме, с его точки зрения,будет поступить этически правильно, а также сравнить свои ответы сответами других людей.
Исследователи призывают «помогите нам сделатьмашины моральными»3. Данный эксперимент еще не окончен, и любойжелающий может принять участие в нем. Тем не менее, это являетсядоказательством интереса научного сообщества к вопросу моральностиискусственного интеллекта.1Там же.Там же.3Moral Machine: [сайт]. URL: http://moralmachine.mit.edu/ (дата обращения: 25.10.2016)2193В общем, можно говорить о нескольких этически проблемах,связанных с ИИ. Во-первых, во многих случаях ИИ сделан так, чтобыработать бок о бок с людьми, что неизбежно приведет к травмированиюлюдей из-за ошибок, допущенных на разных стадиях его разработки ипроизводства, причем это может привести не только к угрозе здоровью илижизни одного человека, но многих людей.
Решением этой проблемы можетстать внедрение этических принципов в ИИ, по типу трех законовробототехники Азимова, или же, как противоположный вариант, разработкадружественного человеку искусственного интеллекта с самого начала.«Два важных вопроса нуждаются в рассмотрении в этом контексте:возможно ли создать своего рода “искусственных моральных агентов”? Есливозможно, то какой этический кодекс нужно запрограммировать в них?»1.Когда мы задаемся этими вопросами, мы должны в первую очередь,определить,будутлиэтиморальныеагентыимплицитнымиилиэксплицитными. Имплицитные моральные агенты нацелены на то, чтобыпредотвращатьнежелательныеэтическиеситуации,невестисебяаморально.Благодаря скорости мышления и отсутствию чувств, искусственныеагенты могут быть даже более моральными, чем люди, поскольку онисмогут принимать без оглядки тяжелые моральные решения: судить безпредрассудков, решаться на что-то, на что человеку требуется большая силадуха, относиться к другим без эгоизма.
Оборотной стороной применениятехнологий ИИ таким образом может стать нежелание людей приниматьморальные решение, делегирование решений всех моральных дилемм ИИ.Точно также как многие люди перестали учиться считать и писать безошибок1споявлениемкалькуляторовиавтоматическойпроверкиPreliminary Draft Report of Comest on Robotics Ethics: [preliminary repot; Электронный ресурс]. –WorldComission on the Ethics of Scientific Knowledge and Technology (COMEST), 5 August 2016.
P. 24 - Режимдоступа: http://unesdoc.unesco.org/images/0024/002455/245532E.pdf (дата обращения: 27.12.2016)194орфографии, также они могут потерять и способность принимать моральнозначимые решения.«Когда дело доходит до создания эксплицитных этических агентов (тоесть агентов, способных к общему принятию моральных решений инезависимому осуществлению этих решений), несмотря на тот факт, что ихвозможность является все еще спекулятивной, необходимо детальноеэтическое внимание к нему»1. И, несмотря на то, что для людейделегирование моральных решений таким ИИ было бы желанно, техническиони пока невозможны.
К тому же сложно понять, когда машина изимплицитного морального агента превратится в эксплицитного. И как мыувидели выше, тест Тьюринга из-за ограничений, отмеченных Серлом, несможет в этом помочь. Тем не менее, если ученые смогут преодолеть этиограничения, это станет прорывом в области определения моральных ИИ.Но даже если когда-то сильный моральный ИИ станет возможным, «одна изосновных причин этой теоретической безвыходной ситуации, конечно, - тотфакт, что до сих пор не существует окончательных философских ответов навопрос, что такое мораль и что, если таковое имеется, значит действоватьморально»2.Еще одним пунктом для критики как работы Рассела и Норвига, так и«Открытого письма», можно считать то, что, обсуждая возможность ипоследствиясуществованиясильногоИИ,РасселиНорвигнерассматривают его в фактической части.
То есть во всей книге ИИ перестаеткак набор технологий и систем, выполняющих отдельные функции, но некак полноценное и единое существо, которым будет сильный ИИ.Интересно также то, что ожидание угрозы от машинного интеллектаявляется свойством в большей степени западноевропейской культуры, чем1Там же. С. 25-26Там же. С 262195Востока. «Отметим, что не во всех культурах от искусственного интеллектаожидают угрозу. Например, в Японской культуре они всегда дружелюбны.Эта разница связана с различающимися религиозными традициями Востокаи Запада.
На японскую культуру сильно повлияли буддизм и синтоизм, длякоторых одушевлены как живые, так и не живые существа, в то время как вхристианстве вмешательство в творение Бога является греховным»1.Что касается законодательства, многие страны уже начали внедрятьзаконы относительно отдельных видов ИИ (США, Германия), такженачинают разрабатываться законодательство о статусе и использовании ИИ,так, например, предварительные законопроекты ЮНЕСКО, Кореи, Японии,хотя все они еще только на стадии разработки.Одним из ключевых свойств сильного искусственного интеллектаявляется наличие у него морали. Но критические моменты этическихисследований в когнитивистике есть и в исследованиях слабого ИИ,который уже существует, в отличие от сильного ИИ, который ученым ещене удалось спроектировать.
Проблема построения машинной морализаключается, во-первых, в рассмотрении ее когнитивистами только сматериалистической точки зрения, то есть без учета ее сущностных свойств.Во-вторых, проектировщики ИИ разрабатывают для машин одновременночеловеческий разум и полезную для человека мораль, что являетсяпротиворечием, поскольку свобода и сознательность человеческого разумане совместима с идеей изначальной полезности кому-то или чему-то, то естьне свободы.Исследование морали в отношении искусственного интеллекта имеетважное значение для человечества в двух плоскостях. Во-первых, это то, какраспределяется ответственность за ошибки ИИ или его намеренныеразрушительные действия, а также моральный статус ИИ: относиться ли к1Там же.
С 5196нему как к моральному объекту или субъекту морали. Во-вторых, эторазработка морали для машин. Эта область относится только к сильномуИИ, но уже сейчас ведутся споры о том, как внедрить человеческую моральв машинный разум.Как мы увидели во второй главе, когнитивистика в целом показываетограниченный этический анализ в понимании традиционной философскойпроблематики, что добавляет озабоченности по отношению к вопросу ИИ.Когнитивизм в совокупности с грубым материалистическим подходомлишаюткогнитивистикувозможностирешитьтолькообозначенную проблему моральности и дружелюбия ИИ.интуитивно1975.