Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Структура нейронних мереж

Поняття про перетворення, аналіз спектрів сигналу | Фур’є перетворення | Згортка. Розмиття сигналу | Віконне Фур’є перетворення | Поняття про вейвлет-перетворення | Фільтрація адитивних завад | Перспективи розвитку оптичних нейронних мереж | Реалізація оптичних нейронних мереж | СИСТЕМИ БАГАТОХВИЛЬОВОГО УЩІЛЬНЕННЯ | Блок-схема систем з WDM |


Читайте также:
  1. BITMAPFILEHEADER – эта структура содержит информацию о типе, размере и представлении данных в файле. Размер 14 байт.
  2. II. Структура 12-річної школи
  3. II.СТРУКТУРА ОТЧЕТА ПО ПРАКТИКЕ
  4. III. Структура «минус»-пространства, его семантика, его трансформации
  5. IV. Состав и структура.
  6. quot;Кентерберійські оповідання"Чосера. Структура. Зміст.
  7. VII. Методика проведення заняття та організаційна структура заняття

Основне призначення нейронної (або нейроподібної) мережі (НМ), так чи інакше, пов’язане з задачею розпізнавання образів. При цьому принцип розпізнавання – асоціативний, а кінцеве рішення про належність певного образа до того, чи іншого класу, відповідь на питання „ТАК” або „НІ” приймається на імовірнісній основі. Виходячи з цього в самому загальному сенсі алгоритм роботи НМ зводиться до порівняння образу, що аналізується з образом, який зберігається в НМ за асоціативними ознаками. Отже, в певній мірі, НМ може бути інтерпретована як асоціативно-запам’ятовуючий пристрій (АЗП). При подаванні на вхід такого АЗП певного образу (або його частини) відбувається його порівняння з образом, що зберігається в мережі та на її виході формується образ (або сигнал, що відповідає образу), якій є найбільш близьким до вхідного сигналу. Природно, що такі дії НМ можливі лише в одному випадку, коли в НМ попередньо „записується” певна кількість еталонних образів, які відповідають тому класу до якого належить вхідний образ. Процес запису образів в НМ має назву навчання мережі. Природно, чим більше образів цього класу записано до мережі тим більше імовірність правильного розпізнавання вхідного образу.

На рисунку 1.25, a. зображена деяка структура (мережа), яка складається з шарів та , які в свою чергу складаються з елементів. Зауважимо що в загальному випадку кількість елементів в кожному шарі може бути різна. Нехай на таку мережу поступає сигнал:

(1.39)

де – елементарний сигнал, що поступає на -й елемент 1-го шару.

Таку мережу будемо називати нейронною (або нейроподібною), якщо мережа має такі властивості:

1. В залежності від величини вхідного сигналу вихідний сигнал (реакція) елемента (нейрона) може приймати значення лише +1 або –1 (див.
Рис. 1.25 b). В принципі вихідні сигнали (стани) можуть бути і іншими, або з ними асоційовані інші рівні вихідного сигналу, наприклад, 0 та 1. У будь-якому випадку елемент спрацьовує як пороговий, тобто при досягненні вхідного сигналу певного значення вихідний сигнал елемента стрибком змінює своє значення.

2. Вхідний сигнал на – му елементі 2-го шару визначається співвідношенням:

(1.40)

де - визначає зв’язок між нейронами та першого та другого шарів НМ.

1. Тоді вихідний сигнал з -го нейрона можна представити як:

 

, (1.41)

де – умовне позначення стану елемента після впливу на нього вхідного сигналу, яке вказує, що існує певний час релаксації нейрона, – нелінійний оператор, якій забезпечує стрибкоподібну зміну вихідного сигналу, – порогове значення вхідного сигналу, яке, за звичай, однакове для всіх нейронів.

Виходячи з виразу (1.41) та рисунку 1.25, а технічну модель нейрона можна уявити собі як певний пристрій, якій містить:

· суматор, який об’єднує сигнали, що надходять з попереднього шару;

· нелінійний оператор;

· розподілювач, якій через міжз’єднання передає результат обробки, або на наступний шар, або на вихід системи.

Зауважимо, що в принципі можливий варіант, коли вихідний сигнал з виходу -го шару знову ж подається на вхід -го тобто утворюється ланка позитивного або негативного оберненого зв’язку (рис. 1.25 с). При цьому шари мережі виділяються досить умовно. Насправді, таке розбиття НМ на шари не завжди можливе, оскільки зв’язки між нейронами можуть мати випадковий характер і відповідно „архітектура” НМ має вигляд подібний до зображеної на рис. 1.25 d.


Дата добавления: 2015-11-14; просмотров: 113 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Диференціювання сигналу| Алгоритм роботи нейронної мережі. Алгоритм Хопфілда

mybiblioteka.su - 2015-2024 год. (0.007 сек.)