Пояснительная записка королёв (1206314), страница 8
Текст из файла (страница 8)
Прииспользовании ядра, не имеющего того или иного параметра, значение,хранящееся в соответствующем поле структуры, игнорируется и может бытьлюбым.<C> соответствует параметрам оптимизационных задач, решаемыхалгоритмом обучения. Тип используемой машины опорных векторовуказывает на то, какой из этих параметров "активен"[8].2.4 Описание алгоритмаПреимуществом метода опорных векторов по сравнению с другимиметодами идентификации объектов на изображении является высокийпоказатель распознавания на изображениях с шумами и искажениями, чтопредполагает высокую точность распознавания. Главным недостаткомданного метода является то, что параметры модели сложно интерпретировать.Предлагаемый метод идентификации дорожных знаков на изображениипредставляет собой комбинацию двух методов: метода опорных векторов исверточных нейронных сетей.
Комбинация строится следующим образом:метод SVM обеспечивает принятие решения, находится ли на изображениидорожный знак или нет, в случае его присутствия изображение поступаетдальшенавходсверточнойнейроннойсети,котораяформируетокончательное решение о наличие дорожного знака на изображении. Нарисунке 2.1 представлена функциональная блок – схема комбинированногометода. Синтез этих двух методов позволяет рассчитывать на высокийпроцент правдивых распознаваний, а также на идентификацию при различныхуглах искажения, а также плохих погодных условиях.Предлагаемый алгоритм для распознавания дорожных знаков состоит издвух этапов: обучения и распознавания.Первым этапом алгоритма будет обучение которой состоит из несколькихшагов:49 выделение компонентов изображения дорожного знака в обучающейвыборки с помощью метода опорных векторов; уменьшение размерности векторов выделенных признаков методомопорных векторов; обучение сверточной нейронной сети на полученных векторахпризнаков.На втором этапе сверточная нейронная сеть повторно выполняет проверкуна присутствие дорожного знака на изображении, тем самым позволяя убратьошибки распознавания [23].1Начало22 Применяем метод опорныхвекторов33 Получаем каскаднуюмодель классификаторов44 Подаем на вход областьизображения, i=1, k=количество классификаторов55 Производим поискдорожных знаков на входнойобласти на i - ом слоюда66 Объектотсутствует77 Увеличиваем значениесчетчика I на еденицу88 i>k9нет50899 Подаем на вход нейроннойсети рассматриваемуюобласть изображения1010 Формируем решение оналичии дорожного знакана этом излбражении1111 КонецРисунок 2.1 – Функциональная схема комбинированного методаобнаружения дорожных знаков2.5 Предварительная классификация с помощью сверточной нейроннойсетиДля повторной классификации дорожных знаков на изображенияхразработана сеть.
Данная нейронная сеть имеет самую простую структуру:меньшее количество плоскостей, нейронов и связей. На рисунке 2.2 показанаструктура использованной в работе сверточной нейронной сети.Рисунок 2.2 – Структура сверточной нейронной сети51Входной слой имеет размер 28x52 нейрона и предназначен для подачивходного образа в нейронную сеть. Второй слой сверточной нейронной сетиявляется слоем свертки, состоит из 5 сверточных плоскостей размером 24х46нейронов. Каждая плоскость данного слоя имеет собственную матрицусинаптических коэффициентов плюс нейронное смещение и таким образомвыполняет пять сверток входного изображения.
Значения нейронов текущегослоя вычисляются при последовательном сканировании входного слоярецептивным полем и умножении значений входящих в него нейронов наматрицу весовых коэффициентов. Рецептивные поля смежных 61 нейроновчастично пересекаются и в результате этого нейроны извлекают из входногослоя свои характерные признаки, независимо от их расположения, чтообеспечивает устойчивость нейронной сети к смещению и повороту входногоизображения.
Размер локального рецептивного поля равен 5x7 нейронов.Каждой плоскости соответствует 5 * 7 = 35 весовых коэффициентов инейронное смещение.Размерплоскостейсверточногослояопределяетсяследующимиформулами (2.2): = − + 1, ℎ = ℎ − + 1 ,(2.2)где ℎ – параметр высоты плоскости сверточного слоя; – параметр ширины плоскости сверточного слоя;ℎ – параметр высоты плоскости предыдущего слоя; – параметр ширины плоскости предыдущего слоя;M, N – параметры высоты и ширины локального рецептивного поля;Функционирование нейрона сверточного слоя определяется следующейформулой (2.3):(,)(,)где, = + ∑=1 ∑=1 (,),, −1(10)– нейрон сверточного слоя, q-ой плоскости; – нейронное смещение q-ой плоскости;52N, M – ширина и высота локального рецептивного поля;(,)−1 – выходные значения нейронов предыдущего слоя;,, – синаптические коэффициенты [25];Третий слой является слоем подвыборки и состоит из 5 подвыборочныхплоскостей.
Каждая из этих плоскостей имеет связь только с однойсоответствующей ей плоскостью предыдущего слоя нейронной сети. Данныйслой обеспечивает локальное усреднение плоскостей предыдущего слоя,поэтому размер плоскостей данного слоя вдвое меньше, чем в предыдущемслое и равен 12х23 нейрона. Рецептивные поля смежных нейронов непересекаются и имеют размер 2х2 нейрона, что обеспечивает частичнуюинвариантностьизображения.нейроннойКаждойсетиплоскостикизменениюсоответствуетмасштабаодинвходногосинаптическийкоэффициент и нейронное смещение. Каждый нейрон данного слоя вычисляетсреднее значение нейронов из соответствующей ему области нейроновпредыдущего слоя.
Далее полученное значение умножается на синаптическийкоэффициент и пропускается через функцию активации.Таким образом, данный слой содержит 1380 нейронов и всего 10синаптических весовых коэффициентов. После осуществления операцииподвыборки повышается инвариантность нейронной сети к смещению,изменению масштаба входного изображения и точное расположениепризнаков объектов на изображении становится менее важным.
Размерплоскостей подвыборочного слоя определяется следующими формулами (2.4): =, ℎ =ℎ,(2.4)где ℎ – параметр высоты плоскости сверточного слоя; – параметр ширины плоскости сверточного слоя;ℎ – параметр высоты плоскости предыдущего слоя; – параметр ширины плоскости предыдущего слоя;M, N – параметры высоты и ширины локального рецептивного поля;53Функционированиенейронаподвыборочногослояопределяетсяследующей формулой (2.5):(,)(,)где, = +1(,) ∑=1 ∑=1 −1 ,(2.5)– нейрон повыборочного слоя, q-ой плоскости; – нейронное смещение q-ой плоскости;N, M – ширина и высота локального рецептивного поля;(,)−1 – синаптический коэффициент.Четвертый слой является слоем свертки и состоит из 20 сверточныхплоскостей размером 10х20 нейронов.
Рецептивные поля смежных нейроновчастично пересекаются. Для более эффективного извлечения характерныхпризнаков и получения различных наборов данных, плоскости данного слояперекрестно связаны с плоскостями предыдущего слоя. Первые 11 плоскостейданного слоя формируются по следующему принципу, каждая из трехсоседних плоскостей данного слоя связана с одной соответствующей имплоскостью предыдущего слоя.Таким образом, осуществляется свертка каждой из 5 плоскостейпредыдущегослоятремяразличнымиматрицамисинаптическихкоэффициентов.
Другие 10 плоскостей формируются по следующемупринципу, каждая из 10 плоскостей имеет связь с двумя плоскостямипредыдущего слоя и осуществляет их свертку. Таким образом, данные 10плоскостей формируются путем суммирования результатов свертки каждойвозможной пары плоскостей предыдущего слоя. Данный слой не являетсяполносвязным по причине того, что плоскости должны извлекать различныехарактерные признаки и получать на вход различные наборы данных. Врезультате выполнения этих операций обеспечивается способность нейроннойсети объединять различные виды характеристик, которые в меньшей степенизависят от искажений входного изображения.Размер локального рецептивного поля равен 3x4 нейрона. Каждойплоскости соответствует 3*4 = 12 весовых коэффициентов и нейронное54смещение. Таким образом, данный слой содержит 4000 нейронов и (12+1)*20= 260 весовых коэффициентов [26].Пятый слой является слоем подвыборки, состоит из 20 подвыборочныхплоскостей.
Размер плоскостей данного слоя в два раза меньше размераплоскостей предыдущего слоя и равен 5х10 нейронов. Каждая плоскостьимеет связь только с одной соответствующей ей плоскостью предыдущегослоя. Рецептивные поля смежных нейронов не пересекаются и имеют размер2х2 нейрона.Каждой плоскости соответствует один синаптический коэффициент инейронное смещение. Данный слой содержит 1000 нейронов и 40синаптических весовых коэффициентов. Пять первых слоев предназначеныдля извлечения признаков изображения. Следующие два слоя являютсяслоями классификации. Шестой слой состоит из 20 нейронов. Каждый нейронданного слоя имеет связь со всеми нейронами только одной соответствующейему плоскости предыдущего слоя P2.Каждыйнейронвычисляетвзвешенноесуммирование50соответствующих ему входных параметров, добавляет нейронное смещение иполученный результат передает через функцию активации.Таким образом, данный слой содержит 1020 синаптических весовыхкоэффициентов.
Седьмой слой является выходным слоем и состоит из одногонейрона. Роль данного слоя заключается в вычислении окончательногорезультата классификации. Выходные значения этого нейрона находятся вдиапазоне от –1 до +1, что означает отсутствие или наличие пластиныавтомобильного номерного знака на изображении. Нейрон данного слоя имеетсвязи со всеми нейронами предыдущего слоя и производит вычислениеЕвклидоварасстояниямеждувекторомвыходныхзначенийипараметрическим вектором (2.6):12 = ∑( − ) ,2 =0 (2.6)где, x – вектор входных значений;55w – Параметрический вектор;y – выход сети;Благодаря использованию общих синаптических весовых коэффициентовв плоскостях сверточных нейронных сетей достигается уменьшениеколичества настраиваемых параметров.
СНС содержит 13377 нейронов и 1530синаптических коэффициентов. В таблице 2.1 представлена конфигурациясверточной нейронной сети.Таблица 2.1 – Конфигурация сверточной нейронной сетиСлойЧисло плоскостейРазмерплоскостейКоличествонейронов в слоеРазмерлокальногорецептивногополяКоличествосинаптическихкоэффициентов1128*522524*46354205206-7-12*2310*205*10--14565520138040001000201-5*72*23*42*2---1801026040102020При использовании классических нейронных сетей каждый участокизображения рассчитывается отдельно от всех остальных участков, этоприводит к большим объемам вычислений и снижению скорости работысистемы.
В сверточных нейронных сетях данный недостаток устраняетсяиспользованием общих синаптических коэффициентов и так называемогометода общих вычислений. Локальные рецептивные поля сверточных слоевчастично наслаиваются друг на друга и имеют общие значения нейронов.Поэтому можно не вычислять значения всех нейронов локальногорецептивного поля, а использовать значения, вычисленные на предыдущих56итерациях.