Диссертация (1148978), страница 34
Текст из файла (страница 34)
Можно заметить, что они смотрят на искусственныйинтеллект с точки зрения информатики, применяя термины и концепции,актуальные, по большей части, лишь для этой науки. Несмотря на это,нельзя не отметить, что они стараются подвести гораздо более широкийфундамент под фактическую информацию, которую они преподносят,утверждая, что ИИ - нечто большее, чем просто набор кодов.Из критических моментов в отношении их философского разделаможно назвать ограниченность применяемых областей. Фактически то, чтоони рассматривают в качестве оснований ИИ — либо основания,приводимые во всех когнитивных исследованиях, рассмотренных впредыдущихпараграфахданнойдиссертации,либологическаясоставляющая философии. Такие разделы как онтология, гносеология, этикаостаются в стороне.Также бросается в глаза недостаточная проработанность заявленныхкак философские частей книги в противовес остальным частям.
В главах,посвященных философии, авторы одним и тем же термином называютразные понятия, задают философский вопрос, при этом давая на негоматематический или психологический ответ и т. д. В то же врем, когда мыпереходим к главам, например, о лингвистике или психологии, терминыстановятся понятиями одного порядка и рассуждения последовательными.Следующимотметим,чторазумдляавторовтождествененрациональности: только агент, обладающий идеальной рациональностью понастоящему разумен.
Это и является одновременно и ценностью, и целью,которую нужно достичь при разработке ИИ. Это делает их рассужденияоднобокими,оставляющимитакиесвойствасубъективность, эмоции, мораль, за кадром.разумакаксознание,187Интересным представляется «проскальзывающая» как в этой книге,так и в «Открытом письме» идея о телесности разума. Хотя этому и непосвящена отдельная глава, но авторы недвусмысленно на протяжении всейкниги утверждают необходимость рассматривать разум только в «теле»,поскольку только так можно получить полную картину.От себя автор диссертации может добавить, что многие феномены иразума человека невозможно рассматривать без учета его тела. Например,боль, восприятие цветов и звуков и т. д. - то есть изучение квалиа и еевозможность существования в искусственных разуме и теле.
Идеюосуществления этой проблематичной идеи мы можем найти у П. Тагарда,что мы и увидели в начале главы, посвященной искусственному интеллекту.Хотяврамкахматериалистическойстены,возведеннойтакимикогнитивистами как Деннет, разработка такой проблематики кажетсяневозможной - подобный материализм утверждает, что такие феноменыявляются лишь выдумкой философов, которой в реальности не существует.Отметим, что тело, тем не менее, не является необходимостью длясуществования ИИ.
На данный момент мы еще не можем говорить о том,что существует сильный автономныйИИ, но мы уже можем увидетьпрограммы ИИ, приближенные к сильным. Примером такого ИИ можносчитатьSiri (Speech Interpretation and Recognition Interface). Этовиртуальный помощник, а точнее вопросно-ответная система, доступныйдля продуктов компании Apple Inc. Данное приложение отвечает не толькона поисковые запросы, но и выполняет ряд гораздо более сложныхфункций. Вот что гласит реклама Siri с официального сайта компании:«говорите с Siri, как с другом. И Siri вам поможет. Например, отправитписьмо, назначит встречу, найдёт адрес. Даже расскажет о созвездииОриона или подбросит монетку.
А ещё с Siri можно общаться, не используя188рук. Это удобно, если вы за рулём и хотите, например, проложитьмаршрут»1. Она также обладает чувством юмора и может вести беседыличного характера2. Отметим немаловажный факт: Siri не обладает «телом»,то есть она является прекрасным примером того, как искусственныйинтеллект может оперировать, но не быть роботом.Переходя к моральной проблематике нельзя не отметить вклад Расселаи Норвига в интеграцию ИИ и этики, поскольку именно благодаря их работеможно получить всю необходимую фактическую информацию, без которойневозможна этическая экспертиза.
Также они рассматривают не толькофилософскиеиэтическиепроблемы,связанныесискусственныминтеллектом, но и с некоторыми другими соприкасающимися с ИИ темами,например, проблему трансгуманизма, проблему дружественного ИИ, что вцелом дает более полное представление о том, в каком направлении идетнаука, какие перед ней стоят задачи сейчас и какие, скорее всего, будутстоять в будущем. Во многом они пересекаются с «Открытым письмом»,которое также намечает как угрозы, так и пользу, которые несут с собойтехнологии ИИ.В данном контексте самой серьезной проблемой предстает вопросответственности. Здесь мы видим нескольких возможных субъектовответственности: проектировщика ИИ, пользователя, самого ИИ. Вместе сНорвигом и Расселом мы проследили за системой оценки успешностиагента, где они говорят, что об успешности агента можно судить только поуспешности изменения среды, а не по самому агенту.
И, несмотря на то, чтопрагматически метод выглядит эффективным, в нем не логично расставленыакценты относительно того, кому или чему приписывается успех. Авторыутверждают, что агент не может быть мерой успеха, поскольку он может1Siri: [сайт]. URL: https://www.iphones.ru/iNotes/531284 (дата обращения: 11.01.2017).Сид.М.Какие вопросы можно задать Siri // iPhones.ru: [сайт].
14.02.2016. URL:https://www.iphones.ru/iNotes/531284 (дата обращения: 11.01.2017).2189неверно оценить свои результаты. Например, робот-пылесос, посчитав, чтопол в комнате чистый, может поехать на базу, в то время как в углу осталасьпыль. Лишая агента возможности самооценки, они лишают его и такогокритерия как успех — для него не существует такого показателя. Зато онпоявляется у конструктора, ведь именно он написал такую программу,которая позволила оставить углы грязными, то есть изменяет среду неуспешно.
Продолжая эту линию, вспомним, что, как география среды, так иархитектура являются изначально заложенными схемами агента, поэтому онне может нести за них ответственность, в противоположность конструктору,который их создал для агента. Таким образом, если интеллектуальнаясистема не является автономной, агенту не может быть приписаны ни успех,ниответственность.Поэтомурешениепроблемыоразличияхихарактеристиках слабого и сильного ИИ, которая на настоящий моментявляется предметом оживленных дискуссий, является ключевой для этикиискусственного интеллекта. Также добавим, что исходя из определениясильного ИИ, только он может обладать автономией, а возможность егопоявления также на данный момент является проблематичной.Что касается ответственности пользователя, этот вопрос остается нераскрытым.
Особенно остро он стоит в отношении экспертных технологийИИ, которые используются в медицине. Поскольку ежегодно в публикациювыходит огромное количество работ по медицине, практикующие врачи немогутосвоитьихвсе,втовремякаксовременныйуровеньинтеллектуальных систем позволяет с помощью алгоритмов ставитьнаиболее вероятные, с точки зрения накопленной и опубликованнойчеловечеством информации, диагнозы и прописывать наиболее эффективноелечение. Но несет ли врач, пользующийся такой системой ответственностьза неправильно назначенное лечение? С одной стороны, в отличие от ИИ, онвзаимодействует с пациентом и может оценить, будет ли лечение,назначенноеэкспертнойсистемой,правильным,атакжеоценить190правильность диагноза с точки зрения своего опыта, ведь любая машинаможет сломаться.
С другой стороны, в случаях с тяжело больными,возможностьпереложитьответственностьзадиагнозможетбытьпозитивным решением для врача. Конечно же, в случае неверного диагнозаответственность ляжет и на конструктора ИИ, ведь именно он выбираетархитектуру ИИ и должен предугадать, если не все, то все наиболеевероятные варианты, предусмотреть, где в системе может произойти сбойиз-за противоречивых данных или слишком большого объема информации.Это наиболее яркая, но далеко не единственная проблема, затрагивающаявопрос приписывания ответственности в ИИ. Что касается самойэкспертной системой, как мы увидели при анализе проблемы свободы идетерминизма, только сознательный субъект может быт предметомответственности, а, поскольку слабые системы ИИ не обладают автономией,на них нельзя возложить ответственность.Другой широко обсуждаемой областью применения ИИ являетсявоенная промышленность. С военной точки зрения, ИИ являютсяидеальными солдатами: «робот выглядит идеальным решением этойпроблемы.
Он всегда пользуется прицелом, у него не трясутся руки, он нестреляет наугад. Наконец, потеря даже сотни роботов в день никак не способнавзволновать общественное мнение»1. Но, с другой стороны, применение ИИделает военные действия имперсонифицированными, поэтому они могутперестать быть экзистенциально важным событием, а вместо этого начатьнапоминать компьютерную игру, а тот, кто будет управлять ИИ, можетзабыть о том, что он направляет ИИ на живых людей. Обратной сторонойимперсонификации является то, что, также как и в случае с медицинскимиэкспертными системами, плюсом военных ИИ является то, что им можно1Березин А. Мораль для роботов-убийц // Lenta.Ru (Лента.Ру). [сайт].https://lenta.ru/articles/2015/02/19/killerrobotethics/ (дата обращения: 27.12.2016).19.02.2015.URL:191«делегировать убийство», не возлагая моральной ответственности за это налюдей, которые обладают совестью, в отличие от слабых военных ИИ.Поскольку, как и в любой машине, в военных ИИ могут быть ошибки,они могут стоить многих жизней, включая и жизни со стороныиспользующего ИИ.
Более того, ошибки в распознавании защитной системыот нападающей могут привести к нападению на неагрессивный объект, тоесть невинных людей. Также «существует проблема того, как сдатьсяудаленно пилотируемому роботу: в контексте автономной системы, так какнетустановленного требованию к способу сдаться, ответ на попыткусдаться по определению не может быть запрограммирован, поэтому, такжепо определению, узнавание сдающегося требует человеческого суждения»1.Другим примером проблематичной для этики области применения ИИявляются беспилотные машины.Подобные системы применяются нетолько в таких зарубежных и дорогостоящих машин как Tesla или в такси вделовом центре Сингапура, но и в отечественном автопроме. Самымглавным плюсом внедрения таких самоуправляемых машин станет резкоеснижение аварий на дорогах.