Диссертация (1148978), страница 30
Текст из файла (страница 30)
В первом предполагается, что агенты «действуют так, как будтоони разумны»2. Второе предположение - машины «действительно мыслят(не просто симулируют мышление)»3.Именно возможность существования сильного ИИ и является самойобсуждаемой проблемой в этой области, включая и этический аспект этоговопроса. Можно ли создать машину, которая будет действительно думать, ане имитировать мышление? Является ли слабый ИИ в полном смыслеискусственным интеллектом? А также возможен ли в принципе ИИ?Для того чтобы обозначить возможные пути решения этих споров,необходимо сначала дать определение ИИ.
При определении, которое мыдали в начале — через агента и его среду — ИИ возможен. «Для любойцифровой архитектуры с килобайтами программной памяти существуетровно два 3k агентских программ, и все, что мы должны сделать, чтобынайти лучшую из них, это перечислить и протестировать их все. Это может1Там же.
С. 39Там же. С. 10203Там же.2162не быть правдоподобно для большого k, но философы имеют дело стеоретическим, не практическим»1.Это определение хорошо работает для решения проблем инженерногохарактера. Но, тем не менее, для философов его недостаточно, говорятавторы. «Но философы заинтересованы в проблеме сравнения двухархитектур — человека и машины. Более того, они традиционно ставиливопрос не в терминах максимизации ожидаемой полезности, но скорее как“Могут ли машины мыслить?”»2.
Именно ответом на этот вопрос изанимался Алан Тьюринг в одноименной работе, которую мы рассмотрели впредыдущем параграфе. Результатом его размышлений явился тест наповеденческий интеллект — тест Тьюринга. Авторы подробно изучают этуработу. Тьюринг приводит, как мы уже видели выше, несколько аргументовпротив существования мыслящих машин. Норвиг и Рассел пытаютсяпривести свои контраргументы к ним.Мыпереходимотформальноговопросаопределенияксодержательному, о том, может ли машина действительно мыслить, какмыслит человек. «Лишь после того как машина сможет написать сонет илисочинить концерт в силу мыслей и прочувствованных эмоций, а неслучайный водопад символов, мы сможем согласиться, что машинатождественна мозгу — то есть не только написать его, но и знать, что онаего написала»3.
Они делают вывод, опираясь на ответ Тьюринга: нужновсего лишь подождать, пока машины достигнут уровня сложности, прикотором разница между слабым и сильным ИИ просто сотрется.Норвиг и Рассел также видят тут такую проблему: почему у человекаесть физический разум, то есть не просто скопление нейронов, а именноразум, имеющий физические основания, а у машины он может быть, а1Там же.Там же. С.
10213Там же. С. 10262163может и нет? И здесь мы опять упираемся в проблему соотношения тела иразума, ответ на который скажет нам, нужен ли машине физический разум.Авторы возвращаются к дуалистической теории Декарта, гдемышление и физическая составляющая разума находятся в разныхплоскостях и, как утверждают Норвиг и Рассел, между этими плоскостяминет связи, объясняющей, как именно разум контролирует тело.
По этойпричине дуализм не подходит в качестве площадки, на которой возможенсильныйИИ.«Монистическаятеорияразума,частоназываемаяфизикализмом, избегает этой проблемы, заявляя, что разум не отделен отдела, что ментальные состояния есть физические состояния»1.
Именно вэтой теории Норвиг и Рассел видят возможность осуществления сильногоИИ. Для этого направления самым сложным моментом является объяснениетого,могутлибиологическиесостоянияодновременнобытьиментальными.Что же такое ментальные состояния? Их можно объяснить черезинтенциональные состояния. «Это состояния, такие как вера, знание,желание, страх и так далее, которые отсылают к некоторым аспектамвнешнего мира. Например, знание, что кто-то ест гамбургер — это мнение отом, что такое гамбургер и в то, что с ним происходит»2.Ментальныесостояния,говорятавторы,детерминированысостояниями мозга.
То есть определенное скопление атомов в моем мозгуобуславливает мои мысли и другую реакцию на поедание гамбургера.Причем это скопление атомов может быть не присуще именно этомуконкретному действию, тем не менее, оно не может отвечать за совершеннодругое ментальное состояние, например, за поедание банана.12Там же. С.
1028Там же.164Это упрощенная точка зрения на изучаемые феномены, говорятавторы книги. Простой мысленный эксперимент может разрушить ее. Еслимы возьмем пример известного фильма «Матрица», где для мозга,подключенного к компьютеру, создавались очень реалистичные иллюзии,мы увидим, что настоящих физических состояний мозга не существовало, иникто из них на самом деле не ел гамбургеры, но ментальные состояния,соответствующие этому, все же присутствовали. Проводя этот эксперимент,Рассел и Норвиг показывают, что состояния мозга не детерминируютментальные состояния.Содержание ментальных состояний можно интерпретировать с двухточек зрения. В более широкой форме, ментальные состояния определяютсякак мозгом, так и историей среды, как будто на человека или машинусмотрим всезнающий наблюдатель, которому подвластно знание обо всеммире.
В узком понимании только состояния мозга имеют значение. В узкомпонимании нет отличий реального поедания гамбургера от иллюзорного.Широкая форма «полностью уместна, если чьей-то целью являетсяприписать ментальные состояния другим, тем с кем он делит мир, чтобыпредсказать их вероятное поведение, его эффекты и так далее. Этообстановка, в которой развился наш обычный язык о ментальномсодержимом.
С другой стороны, если проявлять интерес к вопросу,действительно ли мыслят системы ИИ и действительно ли у них естьментальные состояния, тогда узкий контекст является уместным»1, ведь нетсмысла выяснять, зависит ли ответ на вопрос, действительно ли ИИ мыслит,от окружающей его среды. Также узкий подход логично применять, еслинаша задача — спроектировать ИИ и понять, как он работает, потому чтотолько так будет виден переход от одного состояния мозга к другому. Этоприводит нас к мысли о том, что для состояний мозга важна «его1Там же. С.
1029165функциональная роль в рамках ментальных операций замешанногообъекта»1.Норвиг и Рассел рассматривают теорию Джона Серла — егобиологический натурализм и аргумент китайской комнаты. Согласно Серлу,ментальные состояния являются, как мы увидели выше, полученными врезультате эволюции свойствами нейронных процессов, но не сводящимисяк ним.
И важными здесь являются неопределенные свойства нейронов.Поэтому для создания подобия ментальным состояниям недостаточносоздать просто такую же программу с тем же поведением ввода-вывода.Архитектураподобногоагентапотребуетвоспроизведениятехжепричинно-следственных связей, какие есть у нейронов. Иначе это будетпросто программа, но не разум.Вот выводы, которые Серл, в интерпретации авторов, делает на основесвоего аргумента китайской комнаты, аксиомы, на которых он строит своюаргументацию:« 1.
Компьютерные программы формальны (синтаксис).2. У разума людей ментальное содержимое (семантика).3. Синтаксис сам по себе ни образующий, ни достаточный длясемантики.4. Мозг служит причиной разуму»2.Норвиг и Рассел видят противоречия в этих аксиомах. Например,первая и вторая аксиома базируются на отличии синтаксиса от семантики,так же как и на отличии широкого контекста от узкого. Первая аксиомазависит от того, как мы видим компьютер: как нечто манипулирующеесинтаксическими символами или как манипулирующее электрическимиимпульсами? Последнее — почти то же самое, что делает мозг.
Поэтому мы12Там же.Там же. С. 1032166можемсравнымправомутверждать,чтомозгтакжеявляетсясинтаксическим.По мнению Норвига и Рассела, единственное, что доказал нам Серл,это то, что, если полностью отрицать функционализм, - то, что делает третьяаксиома, то нельзя с необходимостью заявить, что не мозг является разумом.В поддержку третьей аксиомы и теории Серла в целом о том, что же такоеразум, выступает только интуиция, а ее недостаточно для обоснования.Точно также и аргумент с китайской комнатой опирается только наинтуицию, но не доказательства.
«Просто посмотрите на комнату: что в нейдолжно быть разумом? Но можно привести тот же аргумент о мозге: простопосмотрите на этот набор клеток (или атомов), слепо работающих согласнозаконам биохимии (или физики) — что там должно быть разумом? Почемуломоть мозга может быть разумом, а ломоть печени — нет? Это остаетсявеликой тайной»1.Тьюринг же, в интерпретации авторов и в противовес Серлу, вотношении проблемы сознания говорит, что она является очень сложной, новместе с тем неуместной по отношению к ИИ. И здесь Норвиг и Расселсоглашаются с ним и говорят, что задача ИИ как дисциплины — созданиепрограмм, которые только ведут себя разумно, но не обязательно являютсяразумными.Далее авторы переходят от вопроса, можем ли мы создать ИИ, квопросу о том, нужно ли это делать.
Вот какие отрицательные последствияможет принести с собой развитие технологий ИИ:«• Люди могут потерять свои рабочие места в пользу автоматизации.• У людей может быть слишком много (или слишком мало) свободноговремени.• Люди могут потерять свое чувство уникальности.1Там же. С. 1033167• Системы ИИ могут быть использованы в нежелательных целях.• ИспользованиесистемИИможетпривестикпотереответственности.• Успех ИИ может означать конец человеческой расы»1.Норвиг и Рассел приводят к ним контраргументы. Во-первых, говорятони, развитие технологий происходит таким образом, что оно создаетбольше рабочих мест, чем устраняет, причем созданные места являютсяболее интересными и высоко оплачиваемыми.
К тому же новые наукоемкиеместа требуют большого количества времени для разработки проектов.Более того, то, что люди будут безработными, не означает, что у нихдействительнонебудетработы,посколькуонибудутуправлятьсобственными роботами.Существует опасность еще более чем сейчас широкого применениябеспилотников и других технологий ИИ в сражениях, также как и развитиетехнологий в области прослушивания и распознавание речи создаетопасность тотального контроля теми, кто владеет этими технологиями.Что касается сферы медицины и экспертных систем в этой области,они создают новую сферу проблем. В частности, как оцениватьответственность за медицинские ошибки этих систем. Виноват лиразработчик систем или врач, применяющий их? Можно ли осудить врача зато, что он последовал совету экспертной системы? В ответе на эти вопросымы видим значимый этический контекст данной проблематики.Интересным также становится применение интеллектуальных агентовв интернете.