Основы ТАУ - Ч-3 Оптимальные, многосвязные и адаптивные системы - Воронов [1970] (1189551), страница 55
Текст из файла (страница 55)
Сигнал р, подаотся па рецепторы Лгп р, — на Л,, и изменяет пх коэффициенты по закону: ЛЛм [и]= Л [п+1] — Ли[и]= (х„[п] — й„Лп [п] р, [и]); (9.87) ЛЛ, [п] = — Л, )п+1] — Л, [п]=-(х, [п] — )с, Лз [п] р, [и]). Обучение сводится к тому, что мы проиаводим в моменты времени 1 = 1, 2, ..., п показы перцептрону серии объектов данного образа.
Перцептрон сам вырабатывает при этом сигналы изменения Л и, в конце концов, если классификация удалась, после достаточно большого числа показов начнет выдавать при после- дующем появлении одного класса объектов 1, другого — О, для некоторых же объектов будет наблюдаться чередование единиц и нулей.
Перцептрон далеко не всегда в состоянии вырабатывать понятия или системы, которые совпадают с понятиями оператора. Это вполне понятно: при построении его конструктор не знал точно, какой должна быть внутренняя структура машины, пытался воспроизвести в какой-то степени схему зрительного аппарата, хотя и она также не была ему известна во всех деталях, понадеялся на удачный случай (первоначальный выбор связей) и на то, что процесс обучения в какой-то мере выправит ошибки.
Значительное место в процессе построения машины (что довольно часто происходит, когда используется подход «черного ящика») занимала «надел«да на чудо». Перцептроны различных типов детально рассмотрены в [122, 258, 267, 268[, их анализ дан в [21, 18, 44, 45!. В [21[, в частности, рассмотрены способы определения возможности классификации перцептроном при заданных структуре (значениях Х,), характере образа (вида функций х) и статистике показа (видом функции плотности вероятности появления объектов разных классов). Оказалось, возможности перцептрона довольно ограничены.
В [123! приведены примеры задач, оказавшихся для перцептрона «трудными». При различении прямоугольников, вытянутых в гориаонтальном и вертикальном направлениях, после показа 15 фигур в дальнейшем перцептрон при 30 испытаниях сделал 6"» ошибок; при различении произвольно расположенных окружностей и треугольников разных размеров число ошибок достигло 33%, при различении прямоугольников и эллипсов число правильных ответов было 50%. Иными словами, первая задача решалась более или менее удовлетворительно, вторая — очень плохо, а в третьей перцептрон фактически не работал. По-видимому, успех в первой задаче в значительной мере объяснялся тем, что малые размеры растра дали возмож ность перцептрону запомнить почти все возможные фрагменты фигур, т. е. работа перцептрона приближалась к работе автомата «с полной памятью».
В рассмотренных выше примерах для решения задачи распознавания использовались специально построенные для этой цели машины — «пандемониум» и перцептроны различных типов («Марк 1» и др.). Были сделаны попытки построить и другие типы машин («Адалина», «Мадалина») [267, 268]. В настоящее время интерес к построению специализированных машин (в конечном итоге мало эффективных) ослаб и значительно больше внимания уделяется построению различных программ распознавания для универсальных вычислительных машин.
Рассмотрим некоторые из алгоритмов, яа основе которых строятся такие программы. Метод случайных плоскостей [11, 22!. Предолагается, что построение пространства признаков выполнено \ Ъ х/ б) ! ! 1 ! ! с ! ! ! = 17 ! ! -с= П 'ш ! Рвс. 9-20. В конце процесса обучения в памяти машины накапливается большое число разделяющих плоскостей. Затем по определенному алгоритму из памяти машины стиршотся те части плоскостей, по обе стороны которых оказались одноименные точки. На рис. 9-20, а показана разделяющая плоскость 1, проведенная между точками 1 и 2; на рис.
9-20, б добавлена плоскость П, разделяющая точки 2 и 8; на рис. 9-20, в добавлена еще плоскость Ш, отделившая точки 4 и б и плоскость 1'г', проведенная между точками 5 и 6. На рис. 9-20, г показаны прерывистыми линиями стертые части зтих прямых. Оставшаяся ломаная линия принята за разделяющую поверхность.
Как видно, эта поверхность не совсем точно разделяет области, хотя вероятность правильной классификации довольно высока. Удлинняя процесс обучения, точность разделения можно повысить. Метод потенциальных функций. При показе некоторой точки х, принадлежащей образу Х (х ~ Х), машина 2йй и что гипотеза разделимости образов в етом пространстве соблюдается. При показе подряд двух точек, которые обучающий относит к разным образам, машина, получив от него эти указания, проводит в пространстве признаков случайным образом произвольную разделяющую плоскость.
При показе каждой следующей точки машина не реагирует на показ, если точка принадлежит к тому же образу, что и предыдущая, и каждый раз проводит случайную разделяющую плоскость, когда точка будет отнесена к другому образу. строит поверхность, соответствующую некоторой функции, всюду положительной, достигающей максимума в данной точке и умень- шающейся при удалении от нее в любом направлении. Для всех показанных точек, принадлежащих одному образу, такие функ- ции строятся для каждой из точек и затем суммируются. В ре- зультате для каждого из двух образов получал>тся две потен- циальные поверхности, одна из которых имеет «горб» над областью, принадлежащей первому образу, другая — над областью вто- рого образа (рис.
9-21). При показе новой точки сравниваются значения потенциальных функций, определяемых поверхностями 1 и 11, и точка относится к тому образу, для которого значение потенциальной функции оказалось большим. Пусть (9, (х) есть некоторая функция и пусть существует раз- деляющая поверхность, которая может быть выражена через функции (р« следующим образом: г (Х„Хгг » (*) = Х '(г (*) (9-88) Хг (т. е. ф (х) разлагается в конечный ряд по функциям (р).
Введем в рассмотрение Ы потенциальную функцию К(х, х*) = х( ~, ) (р((х) (р«(хэ), Рве. 9-21 (9-89) К(х, х'), если х' ~ А К,(х) = ( — К (х, х'), если х' ~ В. (9-90) Если после г показов построен потенциал К„(х), то для следующей точки г+ 1 имеем К,(х("'1)))0, и х~г»1) ~ А; К„(х(""))(О, и х'"+') (: В; К„(хрэ»)) (0 и х("«" ~ А; К„(х'" ") ) 0 и х(' ') ~ В. (9-91) К, (х), если или если К„(х)+К(х, х'"+')), если К, (х) — К (х, х'" ')), если где х * — показываемая в процессе обучения точка. Функция К зависит от этой точки, как от параметра. Припишем этой функции анак +, если показанная точка принадлежит образу А, и знак —, если она из образа В.
Так, для точки х 1: Последние две строки соответствуют нарушению правила знаков, например г + 1-я точка оказалась из образа А, но потенциальная функция для нее отрицательна. Это означает, что классификация г+ 1-й точки оказалась ошибочной. Каждое изменение функции К, (х) путем добавления или отнятия К (х, хи+ о) называется «исправленнем ошибки». В конце обучения после показа У-й точки получаем функцию Кл (х), которая и принимается за разделяющую поверхность. В [3, 4) доказана сходимость алгоритма за конечное число шагов с любой наперед заданной точностью.
Там же показано, что перцептрон «Марк 1», построенный Розенблатом, реализует алгоритм потенциальных функций для того частного случая, когда в качестве функций ю«(х) принимаются пороговые функции и докавано, что перцептрон будет обучаться и в том случае, если вместо пороговых элементов будут установлены любые функциональные преобразователи, реалиаующие некоторую систему функций, по которой разлагаются разделяющие функции.
Метод обобщенного портрета. Методобобщенного портрета для обучения распознаванию образов подробно изложен в !25 — 28). Пусть имеется множество объектов Н, распадающееся на и непересекающихся подмножеств Н„Н„..., Н„. Объекты имеют однозначные отображения в пространстве рецепторов Х. Пространство Х представляет собой некоторое абстрактное пространство, свойства которого определяются видом преобразования характеристик объекта в векторы Х„т. е.
физическими свойствами воспринимающего образ устройства (рецептора). Если существуют обрааы, соответствующие подмножествам Ню ..., Н„, то в общем случае разделяющая поверхность в пространстве Х (если она вообще существует) обычно слишком сложна. Позтому подобно тому, как в предшествующих методах прибегали к построению «спрямляющего пространства», в котором разделяющими поверхностями являются гиперплоскости, в методе обобщенного портрета также прибегают к построению вспомогательного метрического пространства Т так, чтобы каждому образу Н, (или его изображению х, в пространстве Х) можно было бы поставить в соответствие точку щ в пространстве Т так, чтобы выполнялись соотношения р (Л'р ) ( р У~'р ) (9-92) где ~« — точка пространства Т, соответствующая злементу образа Н,', 1, — точка того же пространства, соответствующая образу Н,', р (Д, у,) — расстояние точки ~, от точки <р,. Йеравенство (9-92) можно трактовать так: расстояние между точкой ~р, и любой точкой «постороннего» для точки ~р; образа ~, всегда больше расстояния между точкой ~р,.
и любой точкой «своего» обрааа ~е Если удалось построить пространство Т, обладающее отмечен- 298 ными свойствами, то точка ~р,. называется обобщенным портретом образа Н,. Неравенство (9-92) можно также записать: р Уо р~) ~ Н; ~ р(Л. 'рэ) Н~ 1 (9-93) (Л %~)~К*' (А 'р)(Ко (9-94) где порог узнавания К, определяется так: К~= 1п1 Ц Э;).