Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Алгоритм роботи нейронної мережі. Алгоритм Хопфілда

Поняття про перетворення, аналіз спектрів сигналу | Фур’є перетворення | Згортка. Розмиття сигналу | Віконне Фур’є перетворення | Поняття про вейвлет-перетворення | Фільтрація адитивних завад | Диференціювання сигналу | Реалізація оптичних нейронних мереж | СИСТЕМИ БАГАТОХВИЛЬОВОГО УЩІЛЬНЕННЯ | Блок-схема систем з WDM |


Читайте также:
  1. C. ВИСНОВКИ РОБОТИ ДОСЛІДНУ ГРУПИ
  2. Matlab-реализация алгоритма
  3. А) алгоритмічна конструкція, де перевіряється умова (значення логічного виразу), і залежно від її істинності чи хибності виконується та чи інша серія команд.
  4. Автоматизоване робоче місце — засіб автоматизації роботи користувача
  5. Алгоритм 2.1. Разбор цепочек символов по ДС с действиями
  6. Алгоритм 2.14. Сортировка таблиц, управляемая пользователем
  7. Алгоритм 2.15. Форматирование единиц времени календарной диаграммы

Зауважимо, що перед процесом навчання всі зв’язки мають нульове значення, тобто . Отже перед функціонуванням НМ треба задати конкретні значення цім зв’язкам. Іншими словами треба виконати операцію навчання мережі. Суть цієї операції полягає в тому, що на вхід мережі подається ( -кратне навчання) сигналів . При цьому значення довільного зв’язку встановлюються згідно рівняння:

(1.42)

При цьому

(1.43)

Покажемо, що при поданні на вхід НМ сигналу можливі дві ситуації:

1. НМ „скочується” до одного з образів, що зберігаються в її пам’яті, тобто на виході мережі генерується цей образ.

2. НМ виходить в режим автоколивань, тобто на виході формується змінний у часі періодичний сигнал. Мережа „не може” визначитися, якій образ їй пред’явлено.

Подамо на вхід мережі сигнал . Тоді на виході -го шару НМ формується сигнал:

(1.44)

Згідно з рівнянням (1.41) маємо:

(1.45)

Нехай образ найбільш близький до образу , що зберігається в пам’яті мережі. Тоді

(1.46)

Нехай – кількість бітів, що збігаються в образах і . Тоді (1.46) за виконання умов (1.43) трансформується до вигляду:

(1.47)

або

(1.48)

Другий доданок в фігурних дужках прямує до нуля, оскільки образи та різні. Відповідно кількості – та + одиниць, що утворюються при множенні та за статистикою приблизно рівні. Результат внеску цього доданку у вихідний сигнал незначний і формує так званий шум мережі.

Кінцеве значення виразу (1.48) залежить від співвідношення та , а також дії („настройки”) нелінійного оператора , величини порогового значення , яке визначає перехід вихідних нейронів в стан – або +1. Враховуючи це, можна стверджувати, що при повторному поданні сигналу на вхід мережі вона або „скотиться” до образу , який буде формуватися на виході НМ, або буде знаходитися у стані автоколивань (не зможе сформувати на виході жодного образу, що зберігається в пам’яті).

Друга ситуація, за звичай, відбувається коли поріг встановлюється не оправдано високим. Це призводить до того, що навіть при великій різниці і () на виході нейрона формується –1. При цьому низький поріг також не є оптимальним, оскільки, в цьому випадку, НМ буде скатуватися до хибного образу.

Ще раз зауважимо, що якість (імовірність вірного) розпізнавання образу напряму пов’язана з кількістю актів навчання мережі , тобто суттєво залежить від кількості образів одного класу, які зберігаються в пам’яті НМ.

 


Дата добавления: 2015-11-14; просмотров: 117 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Структура нейронних мереж| Перспективи розвитку оптичних нейронних мереж

mybiblioteka.su - 2015-2024 год. (0.007 сек.)