Моделирование процессов подбора и оценки персонала (1142477), страница 17
Текст из файла (страница 17)
118]. Проблема преодолевается путемпостроения искусственной нейронной сети, содержащей несколько скрытых слоев(многослойной нейронной сети).В многослойной нейронной сети выход каждого нейрона в одном слое связанс входами всех нейронов следующего слоя, что схематически представлено нарисунке 4:89Источник: составлено автором.Рисунок 4 – Граф нейросети, которая имеет четыре нейрона во входномслое, два скрытых слоя, содержащих по два нейрона и выходной слой,состоящий из одного нейронаКоличество нейронов входного слоя нейронной сети равно количествуфакторов, влияющих на классификацию. Выходной слой, в случае бинарнойклассификации, содержит один нейрон, на выходе которого получается значение 0или 1.Оцениваемыми параметрами в ИНС являются синаптические веса, а процессих оценки называется обучением нейронной сети. Настройка нейронной сетивключает в себя:выбор архитектуры нейронной сети (выбор количества скрытых слоёви количества нейронов в них);выбор активационной функции нейронов;выбор алгоритма и параметров обучения,Процессобученияпредполагаетпросмотробучающейвыборкивопределенном порядке, который может быть как последовательным, так ислучайным.
Для обучения многослойных нейронных сетей, которые будутиспользованы в данной работе, используется так называемое «обучение сучителем» (альтернативой является процесс обучения без учителя, реализуемый всамоорганизующихся нейронных сетях, яркий пример: самоорганизующаяся картаКохонена [78, c. 106]), при котором обучающая выборка просматриваетсямножество раз, и один полный проход называют «эпохой обучения». При данномтипе обучения исходный набор данных делится на две части – обучающую итестовую выборку, при этом разделение, как правило, происходит случайным90образом. Тестовые данные никогда не участвуют в процессе обучения ииспользуются только для расчета ошибки предсказаний, осуществляемых сетью.Если в процессе обучения на тестовом множестве ошибка сети уменьшается, тосчитают, что сеть выполняет обобщение.
Если же при обучении ошибкауменьшается на обучающем множестве, но увеличивается на тестовом, этоозначает, что происходит запоминание образцов сетью, в то время как обобщениеотсутствует. Такая ситуация получила название «переобучение» (overfitting).Другой проблемой, которая может возникнуть в процессе обучения, является такназываемый паралич сети – ситуация, при которой оцениваемые синаптическиевеса в сети становятся очень большими, что, в свою очередь, приводит к тому, чтонейроны начинают функционировать лишь при очень больших входных значениях.С математической точки зрения процесс обучения – это адаптацияпараметров искусственной нейронной сети для решения поставленной задачипутем оптимизации принятого критерия качества. Данная формулировкапредполагает,чтообучениеискусственныхнейронныхсетейявляетсяразновидностью методов оптимизации.
На выбор конкретного алгоритма обучениявлияет структура и объем данных, составляющих обучающую выборку.Подробнее остановимся на парадигме обучения с учителем. При данном типеобучения, помимо информации о классифицируемом множестве, заданной в видевходных векторов , имеется, также, заданная реакция сети на эту информацию –обучающий сигнал d. В процессе обучения, если реакция необученной сетиотличается от реакции учителя, возникает ошибка (30): =−(30)Настройка параметров искусственной нейронной сети производится такимобразом, что в процессе обучения, некоторая функция от ошибки E(e) достигаетсвоего минимума.
Обученная нейронная сеть, таким образом, фактически«повторяет» реакцию учителя в статистическом смысле.91Для обучения многослойных нейронных сетей, в настоящее время, чащевсего применяют два алгоритма: алгоритм обратного распространения ошибки(back propagation) и алгоритм эластичного распространения (resilient propagation).Остановимся подробнее на алгоритме обратного распространенияошибки [83, c.129].
Каждый объект на входе искусственной нейронной сетипредставляет собой так входной сигнал, вектор - = (1 , … 0 ) . Также имеютсявыходной сигнал - = (1 , … ) и обучающий сигнал = (1 , … ) .Очевидно, что размерность входного и выходного сигналов может отличаться, и,если говорить о задаче бинарной классификации, размерность сигнала будетравна 1, как и размерность обучающего сигнала. В процессе обучения необходимообеспечитьминимальнуюразницумеждузначениямивыходных ()и желаемых () сигналов, где − номер экземпляра обучающей выборки.В качестве функции ошибок используется критерий качества (31):211() = ∑ ( () − ()) = ∑ 2 () = ∑ (),22=1=1(31)=1либо целевая функция (32):211 = ∑ () = ∑ ∑ ( () − ()) = ∑ ∑ 2 ().22(32)Для нахождения минимума целевой функции используют метод,состоящий в последовательной настройке весов по мере получения входныхсигналов один за другим в реальном времени.
При этом, для каждой пары сигналов, веса изменяются на величину (33) Δ , пропорционально антиградиентуфункции (): ( + 1) − () = Δws () = −()(),(33)92где () – шаговый коэффициент.Алгоритм обратного распространения ошибки можно представитьпоэтапно:1)Определение начальных условий для синаптических весов сети.
Вкачестве весов, на данном этапе, берутся достаточно малые случайные числа−0,5−1< <0,5−1(где − количество нейронов в слое ) с целью защитысети от «паралича».2)Подача входных значений и вычисление весов на выходе всехнейронов3)Вычисление локальных ошибок для всех слоев4)Уточнение синаптических весов по следующей формуле (34):∆ = ,5)(34)Подача новых входных значений и т.д.Алгоритм получил своё название из-за процедуры расчета локальных ошибокскрытых слоев. В выходном слое, локальная ошибка представляет собой функциюжелаемого и фактического выходов ИНС и производной активационной функции.Для скрытых же слоёв локальные ошибки определяются на основе локальныхошибок последующего слоя.Серьезным недостаток вышеописанного алгоритма является достаточнодолгий процесс обучения, что делает его неприменимым для ряда задач,требующих быстрого решения.
Сегодня используются алгоритмы, существенноускоряющие процесс обучения, среди них: метод сопряженных градиентов,алгоритм Левенберга-Марквардта [99] и другие. Одним из таких алгоритмов,дающих пятикратное преимущество перед алгоритмом обратного распространенияошибки по времени сходимости, является алгоритм эластичного распространения(resilent propagation), предложенный М. Ридмиллером и Г. Брауном [102].93В отличие от алгоритма обратного распространения, вышеназванныйалгоритм использует знаки частных производных для изменения весовыхкоэффициентов.
Обучение в данном алгоритме происходит по так называемым«эпохам», каждая из которых означает представление сети всех объектовобучающей выборки.Величина коррекции весов рассчитывается по следующей формуле (35): −1>0∆ = −1− Δ ,<0 {+ Δ ,(35)0 < − < 1 < +Изменениезнакачастнойпроизводной(35)натекущемшагепосоответствующему весу говорит о том, что локальный минимум был пропущен ивеличину изменения нужно уменьшить на , а значение веса сделать равнымпредыдущему (36):∆ () = ∆ () − ∆−1(36)Если же знак частной производной остался неизменным, то необходимоувеличитькоррекциюна+,дляувеличенияскоростисходимости.Преимуществом данного алгоритма перед алгоритмом обратного распространенияошибки является то, что при фиксировании + и − можно отказаться отглобальныхпараметровнастройкинейроннойсети.Рекомендованнымизначениями для + и − являются 1,2 и 0,5 соответственно, однако, допустимоиспользовать и другие значения.На практике, с целью недопущения слишком больших и малых значенийвесов, вводится ограничение величины коррекции.94Вычисление значений коррекции весов осуществляется следующим образом(37): >0 ()∆= −Δ ,<0 0,=0{+Δ ,(37)Если производная имеет положительный знак, что означает возрастаниеошибки, то весовой коэффициент уменьшают на величину коррекции (в противномслучае производят увеличение).Подстройка весов происходит по формуле (38): ( + 1) = () + ∆ ()(38)Пошагово, алгоритм можно представить в следующем виде:1)Установка начальных значений Δ2)Предъявление сети всех образцов и вычисление частных производных3)Подсчет новых значений Δ4)Коррекция весов5)Повторение процедуры, начиная с п.2Метод оценки персонала с использованием компьютерных программ можносчитать одним из наиболее эффективных, поскольку, во-первых, процесс оценкиперсонала может быть автоматизирован и, во-вторых, данный метод не требуетдальнейшей оценки персонала, поскольку способен вынести окончательноерешение и исключает необходимость дальнейших затрат, в том числематериальных.
Очевидно, что организации, использующие в своей повседневнойпрактике передовые техники рекрутмента, такие как проведение видеоинтервью иреализация индивидуального программного обеспечения, учитывающего все95особенностибизнес-процессоввнутриорганизации,являютсяболееконкурентоспособными.Подводя итог в обсуждении количественных методов, рассмотренных вкачестве возможных для решения поставленной задачи, необходимо отметитьприсущие им специфические достоинства и недостатки.
Подбор всех параметровискусственной нейронной сети осуществляется экспериментально, посколькупоявление проблем при обучении невозможно предсказать заранее, что являетсяосновным недостатком их использования, наряду с отсутствием возможностиинтерпретировать результаты классификации, то есть установить, какие именнофакторы имеют решающее значение в определении класса, к которомупринадлежит исследуемый объект. Однако данный недостаток компенсируетсяисключительнойпригодностьюискусственныхнейронныхсетейдляаппроксимации нелинейный функций с большим количеством переменных, чтоделает их превосходным инструментом для решения задач классификации.В свою очередь, метод оценки вероятности прохождения испытательногосрока, основанный на использовании бинарной регрессии, позволяет узнать нетолько влияние отдельных факторов на результаты, предсказанные моделью, нотакже предлагает стандартизированные процедуры оценки статистическойзначимости регрессоров, а на основе анализа изменений коэффициентаМакФаддена можно оценить необходимость включения того или иного фактора вмодель.
К недостаткам бинарной регрессии можно отнести необходимость выборапорогового значения для вероятности, предсказываемой моделью, которое будетвлиять на принятие окончательного решения о найме работника (или рекомендацииего клиенту в случае, если речь идет о кадровом агентстве). В идеальном случаевероятность, предсказываемая моделью бинарного выбора, близка либо к 0, либо к1. Однако на практике возникают случаи неуверенной оценки, которую даетбинарная регрессия.96ГЛАВА 3МОДЕЛИРОВАНИЕ ПРОЦЕССА ПОДБОРА И ОЦЕНКИ ПЕРСОНАЛА3.1 Анализ результатов моделей бинарного выбора и искусственнойнейронной сетиТеперьможноприступитькпостроениюмоделей.Данныедлямоделирования представлены в таблице приложения Г, которая содержит значенияфакторов по семидесяти кандидатам и информацию о прохождении имииспытательного срока.
Статистику составили офисные работники среднего звена.Начнём с адаптации моделей бинарного выбора для решения задачи подбораперсонала. В предыдущей главе были выделены наиболее существенные факторы,которые можно выделить из резюме кандидата и которые поддаютсяформализации. Однако с точки зрения качества регрессии вовсе не обязательно, чтовсе перечисленные факторы будут вносить вклад в качество предсказаний,осуществляемых моделью. Как, опять же, было сказано выше, статистическаязначимость группы регрессоров проверяется с помощью статистики отношенияправдоподобия.С другой стороны, изменение величины коэффициентадетерминации МакФаддена после включения в модель нового фактора такжеможет говорить об улучшении (ухудшении) качества модели.Для оценки параметров модели, а также для расчета отношенияправдоподобия и псевдокоэффициента детерминации, автором была написанапрограмма в системе компьютерной алгебры «Maple», код которой представлен вприложениях А, Б и В.















