Чаще всего используются слоистые ИНС с различным числом нейронов в каждом слое. Возможны ИНС с наличием обратных связей между нейронами одного слоя и нейронов различных слоев. Их поведение похоже на поведение цифровых автоматов с памятью. В большинстве ИНС обратных связей нет, информация идет только в одном направлении, такая ИНС похожа на КС. В многослойной ИНС играет большую роль вид активной функции. Обычно слой рецепторов (разветвителей) за слой не считается.
Предположим, что функция F(x) линейна. Тогда для двухслойной сети OUT2 = OUT1 * w2 = x * w1 – w2, т.е. двухслойная сеть будет по возможности эквивалента однослойной с другими значениями коэффициентов и не иметь никаких преимуществ. Введение нелинейности существенно увеличивает возможности ИНС. Основная проблема ИНС – подбор нужных весов коэффициентов, чтобы при заданных входных векторах получить заданный выход. Этот процесс называется обучением. Оно осуществляется предъявлением на вход множества входных векторов и подстройкой весовых коэффициентов всех нейронов. Различают обучение с учителем и без. В первом случае вместе со входным предъявляется желаемый выход (обучающая пара). Для обучения нужно предъявить достаточное количество пар и иногда повторять этот процесс десятки тысяч раз. На каждом шаге вычисляется разница между фактическим и желаемым выходами и по какому-либо алгоритму подстраиваются веса. Процесс продолжается до тех пор, пока на всем множестве обучающих пар не будет получена приемлемая точность формирования выходного вектора.
Часть обучающих пар в обучении не используют, а используют для контроля работы после обучения. Проблемы:
1. Как подстраивать веса.
2. Как будет сходиться и будет ли вообще сходиться алгоритм обучения (конкретный) для конкретной конфигурации сети и конкретной задачи.
3. Строгой методики выбора количества слоев и количества нейронов в каждом слое не существует. Есть лишь некоторое полуимперическое соображение.
Во многих случаях невозможно найти желаемый вектор выходов. В этом случае (обучение без участия) обучающий алгоритм добивается того, чтобы предъявление близких входных векторов, принадлежащих к одному классу, давало одинаковые выходы. Т. е. ИНС выделяет статические свойства обучающего множества и группирует сходные векторы в классы – закон кластеризации. До обучения выход каждого класса неизвестен, какие классы будут выявлены и что представляет из себя каждый класс – тоже неизвестно.
Опубликовал Kest
January 12 2010 14:20:35 ·
0 Комментариев ·
7211 Прочтений ·
• Не нашли ответ на свой вопрос? Тогда задайте вопрос в комментариях или на форуме! •
Комментарии
Нет комментариев.
Добавить комментарий
Рейтинги
Рейтинг доступен только для пользователей.
Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.
Нет данных для оценки.
Гость
Вы не зарегистрированны? Нажмите здесь для регистрации.