Используется для обучения многослойной ИНС. Основная идея:если известна ошибка, известна производная сжимаемой функции, то можно решить задачу в обратную сторону, определить приблизительно насколько надо изменить веса, чтобы минимизировать ошибку.
Точная реализация идеи, строго говоря, невозможна так как даже для выходного слоя, для которого известны числовые значения выходов, нельзя сказать, в чем причина ошибки: то ли неправильные коэффициенты в последнем слое, то ли на их входы подаются неправильные значения с предыдущего слоя. Для скрытых слоев вообще неизвестны ни правильные значения входов, ни правильные значения выходов, ни тем более коэффициент передачи. Более того, если для выходного слоя можно однозначно определить направления желаемой коррекции, то для нейронов скрытых слоев, связанных с несколькими выходными нейронами однозначно трудно сказать, в какую сторону надо изменять OUT (увеличивать, а для другого выходного направления его надо уменьшать).
Очевидно, что процесс настройки даже при полном обучении от выхода к входу будет носить итерационный характер. Важно не столько правильно определять значение корректирующего воздействия (оно влияет на количество итераций), сколько вообще правильно определить направление коррекции, что обеспечит сходимость алгоритма обучения.
Противоречия между необходимостью одновременного увеличения и уменьшения выходов скрытого слоя разрешается чаще всего по методу средних квадратов: минимизируется сумма квадратов ошибок по всем выходам последнего слоя.
Опубликовал Kest
January 12 2010 14:34:55 ·
0 Комментариев ·
9223 Прочтений ·
• Не нашли ответ на свой вопрос? Тогда задайте вопрос в комментариях или на форуме! •
Комментарии
Нет комментариев.
Добавить комментарий
Рейтинги
Рейтинг доступен только для пользователей.
Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.
Нет данных для оценки.
Гость
Вы не зарегистрированны? Нажмите здесь для регистрации.