Хайкин С. - Нейронные сети (778923), страница 12
Текст из файла (страница 12)
Другими словами, на результат классификации не должны оказывать влияния трансформации входного сигнала, поступающего от объекта наблюдения. Существуют как минимум три приема обеспечения инвариантности нейронной сети классификации к подобным трансформациям ~94]. 1. Структурная инвариантность (тчапапсе Ьу з$гцсшге). Инвариантиость может быть привнесена в нейронную сеть с помощью соответствующей структуризации. В частности, синаптические связи между отдельными нейронами сети строятся таким образом, чтобы трансформированные версии одного и того же сигнала вызывали один и тот же выходной сигнал.
Рассмотрим для примера нейросетевую классификацию входного сигнала, которая должна быть инвариантна по отношению к плоскому вращению изображения относительно своего центра. Структурную инвариантность сети относительно вращения можно выразить следующим образом. Пусть и„— синаптический вес нейрона 1, связанного с пикселем г' входного изображения.
Если условие в, = и~эь выполняется для всех пикселей т' и )с, лежащих на равном удалении от центра изображения, нейронная сеть будет инвариантной к вращению. Однако, для того чтобы обеспечить инвариантность относительно вращения, нужно дублировать синаптические веса и, всех пикселей, равноудаленных от центра изображения. Недостатком структурной инвариантности является то, что количество синаптических связей изображения даже среднего размера будет чрезвычайно велико.
66 Глава 1. Введение Входной онгнах Рис. 1.21. Диаграмма системы, использующей пространство ннварнантных признаков 2. Инвариантность по обучению ((пчапапсе Ьу гга)щи). Нейронные сети обладают естественной способностью классификации образов. Эту способность можно использовать для обеспечения инвариантности сети к трансформациям. Сеть обучается на множестве примеров одного и того же объекта, при этом в каждом примере обьект подается в несколько измененном виде (например, снимки с разных ракурсов). Если количество таких примеров достаточно велико и если нейронная сеть обучена отличать разные точки зрения на объект, можно ожидать, что эти данные будут обобщены и сеть сможет распознавать ракурсы объекта, которые не использовались при обучении.
Однако с технической точки зрения инвариантность по обучению имеет два существенных недостатка. Во-первых, если нейронная сеть была научена распознавать трансформации обьектов некоторого класса, совсем не обязательно, что она будет обладать инвариантностью по отношению к трансформациям объектов других классов.
Во-вторых, такое обучение является очень ресурсоемким, особенно при большой размерности пространства признаков. 3. Использование инвариантных признаков ()пуапап1 Теаппе зрасе). Третий метод создания инвариантного нейросетевого классификатора проиллюстрирован на рис. 1.21. Он основывается на предположении, что из входного сигнала можно выделить информативные признаки, которые описывают самую существенную информацию, содержащуюся в наборе данных, и при этом инвариантны к трансформациям входного сигнала. При использовании таких признаков в нейронной сети не нужно хранить лишний объем информации, описывающей трансформации объекта.
В самом деле, при использовании инвариантных признаков отличия между разными экземплярами одного и того же объекта могут быть вызваны только случайными факторами, такими как шум. Использование пространства инвариантных признаков имеет три важных преимущества. Во-первых, уменьшается количество признаков, которые подаются в нейронную сеть. Во-вторых, ослабляются требования к структуре сети. И, в-третьих, гарантируется инвариантность всех объектов по отношению к известным трансформациям 194). Однако этот подход требует хорошего знания специфики проблемы.
Итак, из вышесказанного можно сделать вывод, что использование инвариантных признаков является наиболее подходящим методом для обеспечения инвариантности нейросетевых классификаторов. 1.7. Представление знаний 67 х( «(а) а) е(а) = х(а) — х(а) Рис. 1.22. Модель авторегрессни второго порядка: модель фильтра на линии задержки с отводами (а) и модель решетчатою фильтра (б). (Звездочкой отмечено комплексное сопряжение.) б) х(п) = ~~) а,*.х(п — 1) + е(п), (1.30) а=т где (аг) ма — коэффициенты (соейс!еп0 авторегрессии; М вЂ” порядок модели (що((е! оп1ег); х(л) — входной сигнал ()прпг э!япа!); е(л) — помеха (еггот, представляющая собой белый щум.
Модель, описанная формулой (1.30), представляет собой фильтр на линии задержки с отводами ((аррег(-де!ау-1(пе б!(ег), показанный на рис. 1.22, а для М = 2. Аналогично, ее можно представить как решетчатый фильтр (1ан(се 61(ег), показанный на рис. 1.22, б, коэффициенты которого называются коэффици- Чтобы проиллюстрировать идею пространства инвариантных признаков, рассмотрим в качестве примера систему когерентного радара, используемую авиадиспетчерами, во входном сигнале которой может содержаться информация, поступающая от самолетов, стаи птиц и некоторых погодных явлений.
Сигнал радара, отраженный от различных целей, имеет разные спектральные характеристики. Более того, экспериментальные исследования показали, что сигнал такого радара можно промоделировать с помощью авторегрессионного процесса (АК-процесса) среднего порядка (ап(оге(!гева(че ргосева оГ пюдега(е огдег) [439]. АК-процесс представляет собой особый вид регрессионной модели, описываемой следующим образом: 68 Глава 1. Введение ентами отражения (гейесйоп соешс)еп1). Между коэффициентами авторегрессин (рис.
1.22, а) и коэффициентами отражения (рис. 1.22, б) существует однозначное соответствие. В обеих моделях предполагается, что входной сигнал х(п) является комплексной величиной (как в случае с когерентным радаром), в которой коэффициенты авторегрессии и коэффициенты отражения также являются комплексными. Звездочка в выражении (1.30) и на рис.
1.22 обозначает комплексное сопряжение. Здесь важно подчеркнуть, что данные когерентного радара можно описать множеством коэффициентов авторегрессии или соответствующим ему множеством коэффициентов отражения. Последнее имеет определенные преимущества в плане сложности вычислений. Для него существуют эффективные алгоритмы получения результата непосредственно из входных данных. Задача выделения признаков усложняется тем фактом, что движущиеся объекты характеризуются переменными доплеровскими частотами, которые зависят от скорости объекта относительно радара и создают искажения в спектре коэффициентов отражения, по которым определяются признаки. Для того чтобы обойти эту сложность, в процессе вычисления коэффициентов отражения следует использовать инвариантность Доплера (Рорр1ег (пчапапсе).
Угол фазы первого коэффициента отражения принимается равным доплеровской частоте сигнала радара. Соответственно для всех коэффициентов выполняется нормировка относительно доплеровской частоты, устраняющая влияние сдвига доплсровской частоты. Для этого определяется новое множество коэффициентов отражения к , связанных с множеством исходных коэффициентов отражения к следующим соотношением: к' =к е ' е из=1 (1.31) где  — фазовый угол первого коэффициента отражения. Операция, описанная выражением (1.31), называется гетеродинированиеи (Ьесегодушпд). Исходя из этого, набор инвариантных к смещению Доплера признаков (корр!ег-1пчапап1 гадаг Геагпге) представлаетса ноРмиРованными коэффициентами отРажениЯ к'„1сз, ..., к', где к',— единственный коэффициент этого множества с вещественным значением. Как уже отмечалось, основными категориями объектов, выделяемых радарной установкой, являются стаи птиц, самолеты, погодные явления и поверхность земли. Первые три категории объектов являются движущимися, в то время как последняя — нет.
Гетеродинные спектральные параметры эха радара от земли аналогичны соответствующим параметрам эха от самолета. Отличить зти два сигнала можно по наличию у эха от самолета небольшого смещения Доплера. Следовательно, классификатор радара должен содержать постпроцессор (рис. 1.23). Он обрабатывает результаты классификации с целью идентификации класса земли [439). Препроцессор (ргергосеззог), показанный на рис.
1.23, обеспечивает инвариантность признаков по отношению к смещению Доплера, в то время как постпроцессор использует смещение Доплера для разделения объектов "самолет" и "земля" в выходном сигнале. 1.7. Представление знаний 69 Самолет Птицы Погодные явления Зоила данные ойдадэ Рнс.
1.23. Инвариантный к смещению Доплерв классификатор сигнала радара ° Частота эхо-сигнала (есЬо Гтеопелсу). Кодируется частотной картой ушной улитки. Она сохраняется на протяжении всего пути сигнала по слуховому аппарату и выделяется отдельными нейронами, настроенными на определенные частоты. ° Амплитуда эхо-сигнала (ес)го шпр!йоде). Кодируется другими нейронами, имеющими разные динамические характеристики. Они выделяют амплитудную характеристику и количество отзывов, пришедших в ответ на один сигнал запроса.
° Задержка эхо-сигнала (ест де! ау), Кодируется с помощью нейронных вычислений (основанных за взаимной корреляции). Двумя основными характеристиками, используемыми для формирования изображения, являются спектр (зрестгщп) для данной формы объекта и задерлска (де1ау). Летучая мышь формирует "форму" объекта в терминах времени получения отраженного сигнала от различных отражающих поверхностей обьекта. Для этого частотная информация, содержащаяся в спектре эхо-сигнала, преобразуется в оценки временной структуры (типе зппстпге) объекта.