Диссертация (Автоматическая сшивка радиолокационных изображений земной поверхности при неизвестных элементах внешнего ориентирования), страница 10
Описание файла
Файл "Диссертация" внутри архива находится в папке "Автоматическая сшивка радиолокационных изображений земной поверхности при неизвестных элементах внешнего ориентирования". PDF-файл из архива "Автоматическая сшивка радиолокационных изображений земной поверхности при неизвестных элементах внешнего ориентирования", который расположен в категории "". Всё это находится в предмете "технические науки" из Аспирантура и докторантура, которые можно найти в файловом архиве МАИ. Не смотря на прямую связь этого архива с МАИ, его также можно найти и в других разделах. , а ещё этот архив представляет собой кандидатскую диссертацию, поэтому ещё представлен в разделе всех диссертаций на соискание учёной степени кандидата технических наук.
Просмотр PDF-файла онлайн
Текст 10 страницы из PDF
Для решения данной проблемы введем относительный показательнасыщенности семантики вида:S ps=S/ S I ,(28)где SI – площадь обрабатываемого изображения. Идентификатор «ps» в данномслучае обозначает, что параметр рассматривается как «per square» (на единицуплощади).63К сожалению, для больших изображений, содержащих участки с различнойнасыщенностью семантики, данных подход не всегда приемлем. В качествепримера рассмотрим РЛИ не рисунке 2.9.Рисунок 2.9 – Радиолокационное изображение построек фермы в полеНесмотря на небольшую область повышенной насыщенности семантики(область с постройками) на представленном РЛИ, величина показателянасыщенности семантики Sps для всего изображения не будет сильно отличаться отSps аналогичного РЛИ без построек.Для устранения вышеописанного недостатка проведем дополнительнуюобработку изображения.
Наложим на полученное изображение сетку с шагом P.Для каждого узла сетки с координатами (i,j) подсчитаем количество Nij найденныхлокальных максимумов, попадающих в окрестность данного узла с радиусом P.Таким образом, получим матрицу Sm («m» — matrix, матрица), состоящую из Nij,которая фактически описывает распределение насыщенности семантики на РЛИ.Значения элементов полученного матричного показателя Sm насыщенностисемантики зависят, собственно, от насыщенности семантики в окрестностисоответствующих узлов сетки, от шага сетки P, а также, как и характеристика S, отT и параметров (Np и σ) построения пирамид изображения. Таким образом,зафиксировав P, T и параметры построения пирамид, анализируя значенияэлементов матрицы Sm, можно объективно судить о насыщенности семантики64различных областей на различных РЛИ земной поверхности, а также опригодности данных РЛИ к сшивке.Предложенный алгоритм вычисления показателей насыщенности семантикиS, Sps, Sm РЛИ представлен на рисунке 2.10 [81, 82, 83, 84].Рисунок 2.10 – Схема алгоритма определения количественной оценкинасыщенности РЛИ652.3.4 Вычисление ориентации двух перекрывающихся РЛИ с помощьюнейронных сетейКлючевым этапом алгоритма сшивки РЛИ земной поверхностью являетсяэтап ориентации (корегистрации) – поиск преобразования из СК каждогоизображения в некую единую СК.
Для решения данной задачи сперва необходимонайти взаимную ориентацию в каждой паре перекрывающихся изображений –преобразование из СК одного изображения в СК другого.Для двух перекрывающихся РЛИ земной поверхности первый критерийоптимальности (22) можно переписать в виде:E 12=∫‖G 12 (x 1)−( x 2)‖2 d x E→0,(29)xEгде xE – точка на местности, попавшая на оба РЛИ I1 и I2, x1 и x2 – ее изображенияна них (если известны координаты, то составляют опорную точку), а G12 – искомоепреобразование из СК одного изображения в СК другого.Используякоординатыопорныхточек,можнорассчитатьискомоепреобразование внутри большей части области перекрытия, однако дляостального изображения необходимо проводить экстраполяцию.В решении задач аппроксимации и прогнозирования, в частности,экстраполяции преуспели искусственные нейронные сети (ИНС) [85, 86].Вычислительные системы на основе ИНС обрабатывают информацию по тому жепринципу, что и мозговые центры живых существ.
Достоинствами ИНС являютсявысокая обобщающая способность и независимость их элементов – нейронов –чтопозволяетзначительноускоритьпроцессобработкиспомощьюраспараллеливания.При построении ИНС особое внимание необходимо уделить форматувходных и выходных данных решаемой задачи.66Рассмотрим пару перекрывающихся РЛИ земной поверхности I1 и I2.Входными данными в нашем случае являются координаты точки (x1, x2) в СК I1 –независимые друг от друга и от времени параметры.
Выходными даннымиявляются компоненты вектора (y1, y2), определяющего сдвиг данной точки в СК I2.Как входные, так и выходные данные в нашем случае не подлежат нормализации.Для успешного обучения ИНС необходима обучающая выборка — парывходных и выходных значений, на основании которых ИНС формируетаппроксимацию искомого преобразования СК. В качестве обучающей выборкибудем использовать координаты опорных точек в формате (x1, x2) и (y1, y2),описанном выше. Таким образом, количество элементов обучающей выборкинапрямую зависит от площади перекрытия РЛИ.Для тестирования полученных ИНС сформируем пары из исходных РЛИ иих искаженных копий (рисунок 2.11). Перекрытие в таком случае будет равно100%. После поиска опорных точек выборочно исказим координаты найденныхточек для имитации смены ракурса при наблюдении высотных объектов, добавивк их координатам гауссовский шум с σ = 5.
Далее, отсеем половину опорныхточек, имитируя перекрытие в 50%. Таким образом, одну половину площади РЛИбудем использовать для обучения ИНС (обучающая выборка), другую — дляпроверки (проверочная выборка).Для формирования искаженных копий РЛИ были выбраны следующиехарактерные геометрические искажения для РЛИ земной поверхности:– смещение (перенос точки начала координат), размытие (имитация меньшегоразрешения, так как РЛИ в паре могут быть получены с помощьюразличных РЛС), I21 (рисунок 2.11, б);– смещение, размытие и поворот, I22 (рисунок 2.11, в);– смещение, размытие и изменение масштаба, I23 (рисунок 2.11, г);– смещение, размытие, изменение масштаба и поворот, I24 (рисунок 2.11, д);– смещение, размытие, изменение масштаба, поворот и проективноеискажение, I25 (рисунок 2.11, е).67а)б)в)г)д)е)Рисунок 2.11 – Исходное РЛИ земной поверхности I1 (а) и его искаженные копииI21 (б), I22 (в), I23 (г), I24 (д) и I25 (е)Показателем эффективности ξ экстраполяции искомого преобразованиябудем считать среднеквадратичное отклонение (СКО) точек, полученных спомощью нейронной сети, от точек проверочной выборки.
Под отклонениембудем подразумевать евклидово расстояние между точками.ЭлементомИНСявляетсянейрон(рисунок2.12),выполняющийпреобразование [87]:y=F (S), S=∑ wi x i +w 0 ,i(30)где wi – весовые коэффициенты входных связей, F(S) – функция активации (ФА)нейрона, а xi – входные сигналы.68Рисунок 2.12 – Строение нейрона – элемента нейронной сетиФА может быть одинаковой для всех нейронов одного слоя, в этом случаеИНС называют однородной (гомогенной). Если же ФА зависит от параметров,значения которых меняются от нейрона к нейрону, то такая ИНС являетсянеоднородной (гетерогенной) [88].Типовая схема ИНС включает в себя входной, скрытые и выходной слои.Входной слой не обладает весовыми коэффициентами и чаще всего имеетлинейную ФА:F(S)=S ,(31)Входной слой служит распределителем входных сигналов между нейронамиследующего слоя, поэтому часто входной слой опускают.
Таким образом, название«трехслойная ИНС» подразумевает наличие входного, двух скрытых и выходногослоев.Архитектура ИНС определяет способы соединения нейронов слоев междусобой и, в некоторых случаях, их ФА. Существует множество архитектур ИНС,подходящих для решения тех или иных задач [85, 87].При решении задач прогнозирования и аппроксимации применяютсяследующие архитектуры ИНС:– радиально-базисная сеть;69– обобщенно-регрессионная сеть;– сеть с прямыми связями;– сеть с перекрестными связями (каскадная нейронная сеть);– сеть Вольтерри;– сеть Эльмана.Сеть Вольтерри принимает на вход последовательности значений входныхданных, измеренных в различные моменты времени, поэтому не можетприменяться в нашем случае в силу независимости входных данных от времени[85].
Сеть Эльмана имеет обратные связи с задержкой от выходов нейроновскрытых слоев к их входам, что также подразумевает зависимость входныхпараметров от времени.Радиально-базисныеиобобщенно-регрессионныесетинетребуютитеративного обучения (весовые коэффициенты изначально рассчитываются изобучающего набора входных данных), однако их целесообразно использовать снормализованным набором входных данных, что также не подходит, так какневозможно нормализовать координаты на РЛИ в рамках процесса сшивки.Таким образом, необходимо исследовать ИНС с прямыми и перекрестнымисвязями (рисунок 2.13) на предмет пригодности к решению поставленной задачи.а)б)Рисунок 2.13 – Двухслойные нейронные сети с прямыми (а) и перекрестными (б)связями70Обучение ИНС представленных архитектур целесообразно производить спомощью метода, основанном на алгоритме Левенберга-Марквардта [85, 89].АлгоритмЛевенберга-Марквардтавданномметодеприменяетсядляминимизации функции невязки с помощью итеративного процесса и фактическиобъединяет в себе градиентный метод и метод Гаусса-Ньютона:w i+1=w i −( H +λ diag [ H ])−1 ∇ f E (w i ),(32)где wi – вектор параметров ИНС (весов) i-й итерации, fE(wi) – функция невязки,H – матрица Гессе функции невязки, а λ – параметр, варьирующийся во времяработы алгоритма.В качестве минимизируемой функции невязки используется суммаквадратов ошибок откликов сети на обучающей выборке, что фактически являетсядискретным приближением первого критерия оптимальности (29) для парыперекрывающихся РЛИ земной поверхности.Выбранный метод обучения наиболее эффективен на ИНС с прямыми иперекрестными связями, так как позволяет проводить обучение при наименьшихвременных затратах [89].Количествонейроноввходногоивыходногослоевопределяетсяколичеством входных и выходных параметров соответственно (в нашем случае по2 нейрона на входной и выходной слои).
Количество же нейронов в каждомскрытом слое ИНС, построенной на основе выбранной архитектуры, а также ихФА обычно подбирают эвристическим или эмпирическим путем [86].Для ИНС характерно наличие интервалов допустимых значений входных ивыходных данных, которые определяются ФА нейронов данной ИНС [90]. Такимобразом, в искомых сетях нельзя применять только ограниченные ФА (которыеявляются наиболее популярными).Первыеблизкиекприемлемымрезультатыбылиполученыприиспользовании двухслойных ИНС с прямыми и перекрестными связями71(рисунок 2.13) с линейными ФА (31) нейронов скрытого и выходного слоев.Значения ранее введенного показателя эффективности ξ при симуляции ИНС напроверочной выборке для различных искажений РЛИ представлены в таблице 2.1,где N – количество нейронов в скрытом слое.Таблица 2.1 – Эффективность экстраполяции с помощью двухслойных ИНС спрямыми и перекрестными связямиАрхитектураNПоказатель эффективности ξ (пкс)I21I22I23I24I2530,77151,14911,13771,114514,666650,75831,20691,25011,201114,102270,76421,13031,15871,289315,325690,75221,12981,10281,208414,9011ИНС с прямыми110,76621,15731,10011,226015,6532связями130,75131,20341,13511,181614,1677150,77591,18261,12711,197714,9610180,74561,15351,19631,207914,3303200,75841,17081,09831,219415,2526250,75411,12791,14231,348214,624130,76381,26771,22981,167415,336250,75601,15491,10631,123014,633470,78261,16921,22371,182213,974090,77361,12641,14871,313214,9741110,74781,17541,16241,170615,1150130,75521,20251,08751,158716,4186150,75411,13501,08131,183815,6869180,75681,18291,16991,143615,0128200,76201,14211,06251,291714,1629250,74691,14371,14321,160516,2449ИНС сперекрестнымисвязями72Как видно из представленных результатов, ИНС данной архитектурыхорошо подходят для экстраполяции преобразования СК для большинства видоврассматриваемых искажений, однако дают неприемлемо большую ошибку приналичии на РЛИ проективных искажений.Из теоремы Колмогорова-Арнольда и дальнейшего ее развития ХехтНильсеном следует, что любую многомерную функцию нескольких переменныхможно представить с помощью ИНС фиксированной размерности [85, 88, 91].