Читайте также:
|
|
Зауважимо, що перед процесом навчання всі зв’язки мають нульове значення, тобто . Отже перед функціонуванням НМ треба задати конкретні значення цім зв’язкам. Іншими словами треба виконати операцію навчання мережі. Суть цієї операції полягає в тому, що на вхід мережі подається ( -кратне навчання) сигналів . При цьому значення довільного зв’язку встановлюються згідно рівняння:
(1.42)
При цьому
(1.43)
Покажемо, що при поданні на вхід НМ сигналу можливі дві ситуації:
1. НМ „скочується” до одного з образів, що зберігаються в її пам’яті, тобто на виході мережі генерується цей образ.
2. НМ виходить в режим автоколивань, тобто на виході формується змінний у часі періодичний сигнал. Мережа „не може” визначитися, якій образ їй пред’явлено.
Подамо на вхід мережі сигнал . Тоді на виході -го шару НМ формується сигнал:
(1.44)
Згідно з рівнянням (1.41) маємо:
(1.45)
Нехай образ найбільш близький до образу , що зберігається в пам’яті мережі. Тоді
(1.46)
Нехай – кількість бітів, що збігаються в образах і . Тоді (1.46) за виконання умов (1.43) трансформується до вигляду:
(1.47)
або
(1.48)
Другий доданок в фігурних дужках прямує до нуля, оскільки образи та різні. Відповідно кількості – та + одиниць, що утворюються при множенні та за статистикою приблизно рівні. Результат внеску цього доданку у вихідний сигнал незначний і формує так званий шум мережі.
Кінцеве значення виразу (1.48) залежить від співвідношення та , а також дії („настройки”) нелінійного оператора , величини порогового значення , яке визначає перехід вихідних нейронів в стан – або +1. Враховуючи це, можна стверджувати, що при повторному поданні сигналу на вхід мережі вона або „скотиться” до образу , який буде формуватися на виході НМ, або буде знаходитися у стані автоколивань (не зможе сформувати на виході жодного образу, що зберігається в пам’яті).
Друга ситуація, за звичай, відбувається коли поріг встановлюється не оправдано високим. Це призводить до того, що навіть при великій різниці і () на виході нейрона формується –1. При цьому низький поріг також не є оптимальним, оскільки, в цьому випадку, НМ буде скатуватися до хибного образу.
Ще раз зауважимо, що якість (імовірність вірного) розпізнавання образу напряму пов’язана з кількістю актів навчання мережі , тобто суттєво залежить від кількості образів одного класу, які зберігаються в пам’яті НМ.
Дата добавления: 2015-11-14; просмотров: 117 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Структура нейронних мереж | | | Перспективи розвитку оптичних нейронних мереж |