Диссертация (1148978), страница 31
Текст из файла (страница 31)
Сейчас ведутся разработки таких программ, которые приработе с интернетом не смогли бы никоим образом навредить другимпользователям.1Там же. С. 1034168Страх перед неизвестным будущим, которое нам несет ИИ, заставляетлюдей думать, что оно может стать концом человечества. Норвиг и Рассел наэто отвечают, что многое из того, что так пугает в ИИ, может сделать ичеловек. Это ставит перед программистами задачу создания такого ИИ, вкотором была бы применена система сдержек и противовесов, в которой«единственная ошибка в оценке состояния не проходит через системубеспрепятственно»1.Способность к обучению может привести к тому, что изначальныйдизайн превратится в нежелательное поведение. Но машины не будутзаведомо агрессивными, если только мы сами не решим их такими сделать.«К счастью, существуют техники, такие как практическое обучение, котороепозволяет нам установить сервисную функцию по примеру.
Можнонадеяться, что робот, который достаточно умен, чтобы понять, какуничтожить человеческую расу, также достаточно умен, чтобы понять, чтоэто не было сервисной функцией»2.Гипотетически, когда ИИ станет гораздо более развитым, он станет нетолько сравним по уровню с человеческим интеллектом, но еще и станетсверхчеловеческим.Такжеавторыкнигирассматриваюттеориютрансгуманизма.Трансгуманизм – это социальное движение (в частности, в России3), а такжефилософская концепция, которая поддерживает идею использованиянаучных достижений и новейших технологий для улучшения человека, дляувеличения его умственных способностей и преодоления хрупкости еготела, а в потенциале и преодоление смертности в принципе.
Трансгуманизмявляется спорной и широко обсуждаемой концепцией.1Там же. С. 1037Там же.3Юдин Б. Г. Сотворение человека // Вестник Российской академии наук. Т. 77. N6, 2007. - С. 520-5272169Известным примером воплощенного трансгуманизма можно считатьгероя фильма «Робокоп», где врачи заменяют множество деталей телаполицейского механическими, что делает принадлежность героя к роботамили людям проблематичным1.Проблему трансгуманизма обсуждает шведский философ, профессорОксфордского университета, Ник Бостром.
Он приводит несколькоаргументов за трансгуманизм и контраргументов против него. С однойстороны, нынешний уровень медицины и генетики позволяет определятьдефектные гены у человеческих эмбрионов при различных процедурахискусственного оплодотворения, то есть выявить заведомо болезненныхдетей. Не является ли в таком случае обязанностью родителей выбратьэмбрион со здоровой ДНК, что обеспечит будущему ребенку гораздо болееблагоприятную жизнь, чем больному? С другой стороны, подобныепроцедуры дорогостоящи и не все могут себе позволить провести подобныеанализы. Это приводит к разделению людей на «усовершенствованных» иобычных, причем деление происходит по экономическому признаку.
Этоподрывает принцип естественных прав и свобод человека2.Также существует мнение, которое поддерживает Марк Уолкер (MarkWalker),исследовательизУниверситеташтатаНью-Мексико,чтоувеличивая наши когнитивные способности, мы увеличиваем шансы наразрешение фундаментальных философских проблем, поэтому мы обязаныих улучшать3.Сам Ник Бостром делит усовершенствование на позиционное, котороеизменяет позицию одного человека относительно других (например, рост) иРобокоп // КиноПоиск: [сайт]. URL: https://www.kinopoisk.ru/film/7410/ (Дата обращения: 20.01.2017)Bostrom N. A History of Transhumanist Thought [Электронный ресурс] // Journal of Evolution and TechnologyVol. 14.
Iss. 1. April 2005. P.1-25. – Режим доступа: http://www.jetpress.org/volume14/bostrom.pdf (датаобращения: 30.12.2016)3Walker, M. Prolegomena to Any Future Philosophy [Электронный ресурс] // Journal of Evolution andTechnology Vol. 10.March 2002. . – Режим доступа: http://www.jetpress.org/volume10/prolegomena.html (датаобращения: 20.01.2017)12170объективные улучшения, которые хороши, не зависимо от наличия этихкачеств у других людей (например, иммунитет, умственные способности)1.Он заявляет, что будущее, описанное в научной фантастике, ужесовсем близко.
Вот примеры, которые мы можем встретить уже сейчас:«Супер интеллектуальные машины.Пожизненное эмоциональное благополучие через перенастройкуцентров удовольствия.Личностные таблетки.Колонизация космоса.Молекулярные нанотехнологии.Широко увеличенные сроки жизни.Торможение разумной жизни.Взаимосвязанный мир.Загрузка нашего сознания в виртуальную реальность.Реанимация хронических пациентов»2.Отрансгуманизмерассуждалиодинизпионеровтеорииискусственного интеллекта Марвин Минский.
Он говорил, что его большебеспокоят границы разума, нежели тела. «Как вид мы, кажется,стабилизировались в нашем интеллектуальном развитии. Нет признаковтого, что мы становимся умнее»3. Он полагает, что ни одна известнаяэтическая система еще не готова к изменениям, которые уже произошли.«Как много людей должно быть на Земле? Какими людьми они должныбыть?»4. Сейчас люди рождаются со случайным набором черт, но в будущем1Bostrom N. A History of Transhumanist Thought [Электронный ресурс] // Journal of Evolution andTechnology Vol. 14.
Iss. 1. April 2005. P.1-25. – Режим доступа: http://www.jetpress.org/volume14/bostrom.pdf(дата обращения: 30.12.2016)2Bostrom N. What is transhumanism? 2001: [сайт]. URL: http://www.nickbostrom.com/old/transhumanism.html(дата обращения: 30.12.2016)3Minsky M. L. Will Robots Inherit the Earth?: [сайт]. – Режим доступа:http://web.media.mit.edu/~minsky/papers/sciam.inherit.html (дата обращения: 29.12.2016)4Там же.171они, может быть, будут продуктом желаний и проектирования. Какое знаниемы должны вкладывать в их головы до рождения? Какие права будут у такихлюдей и, какие, им предназначены роли?Минский говорит, что провел небольшой опрос, прежде чем написатьстатью о будущем человечества – задавал вопросы о том, хотят ли люди,например, жить очень долго.
«Меня поразило, что я узнал, что три четвертиаудитории, казалось, считают, что наша продолжительность жизни ужеслишком большая. “С чего бы кому-то хотеть жить пятьсот лет? Не было быэто слишком скучно? Что, если бы вы пережили своих друзей? Что бы выделали со всем этим временем?”»1. В то же время есть так много вещей,которыеможно сделатьилиузнатьзаполученныйврезультатетрансгуманистических изменений срок. Но не заполонят ли Землю врезультате этих же изменений роботы, а не люди? Минский отвечает на этотвопрос так: «да, но они будут нашими детьми.
Мы обязаны своим разумомсмертям и жизням всех созданий, которые когда-либо были вовлечены вборьбу, называемую Эволюцией. Наша задача – увидеть, что вся эта работане должна закончиться в бессмысленной растрате»2.Как и в случае с сильным ИИ, мы не знаем, как повлияеттрансгуманизм на будущее человечества: если человечество останется живо,узнаем ли мы человека? С одной стороны, трансгуманизм – это способпреодолеть многие страдания человечества, с другой – вмесшательство встроение человеческого тела и разума, последствия которого неизвестны,возможно, оно приведет к лишению человека его экзистенциальнойсущности, а его жизни – ценности.Возвращаясь к Норвигу и Расселу, следует сказать, они полагают, чторазвитие ИИ приведет к большим изменениям, также как когда-то к12Там же.Там же.172изменениям привела теория Дарвина.
И помимо необходимости серьезнойработы в разных научных сферах, предстоит большая работа в сферезаконодательства. В этом ключе авторы размышляют о трех законахробототехники Азимова и о том, как именно их можно было бы внедрить всуществующие системы. Три закона робототехники Азимова считаютсяклассическим примером общих моральных принципов для искусственногоинтеллекта. Вот их формулировки:«1. Робот не может причинить вред человеку или своим бездействиемдопустить, чтобы человеку был причинён вред.2. Робот должен повиноваться всем приказам, которые даёт человек,кроме тех случаев, когда эти приказы противоречат Первому Закону.3.
Робот должен заботиться о своей безопасности в той мере, вкоторой это не противоречит Первому или Второму Законам»1.Впоследствии к ним был добавлен нулевой закон: «0. Робот не можетпричинить вред человечеству или своим бездействием допустить, чтобычеловечеству был причинён вред»2. Норвиг и Рассел считают их несовершенными, поскольку они могут быть противоречивыми. Например,если луноходу дана установка собрать образцы ископаемых на неизведаннойпланете, но анализ показывает, что эти элементы опасны для него, он будетходить по кругу вокруг месторождения, ведь второй закон обязывает еговзять пробу, а третий – позаботиться о себе.
Поэтому авторы приходят квыводу, что эти законы недостаточно продуманы и потребуют большихусилий для успешного внедрения.Норвиг и Рассел также упоминают другую теорию, критикующую тризакона робототехники Азимова и представляющую собой альтернативу им.Это теория дружественного искусственного интеллекта. Авторы не12Азимов А. Хоровод // Черный столб. - М.: Знание 1963. - С. 150 - 169.Азимов А. Роботы и империя.
- М.: Эксмо, 2003. - 480 с.173раскрывают полностью эту идею, поэтому углубимся для этого в работыдругих ученых.Проблему дружественного ИИ (Friendly AI) обозначил Юдковски. Онтакже дал название этому феномену. «“Дружественный искусственныйинтеллект” или “ДИИ” (англ: FAI) -это искусственный интеллект (ИИ),который обладает скорее позитивным, чем негативным влиянием начеловечество. ДИИ также относится к области исследований, цельюкоторых является создание такого ИИ. Этот термин в первую очередьотносится к тем ИИ программам, которые обладают способностьюзначительно воздействовать на человечество, таким, например, чейинтеллект сравним или превосходит человеческий»1.