Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Персептроны и зарождение искусственных нейронных сетей. Персептронная представляемость. Обучение персептрона. Алгоритм обучения персептрона.

Читайте также:
  1. I. Правильное обучение и правильное изучение
  2. I. Условия обучения
  3. IV. Обучение и исцеление
  4. Алгоритм выполнения ДЗ №2
  5. Алгоритм действий при выполнении задания
  6. Алгоритм действий при выполнении задания
  7. Алгоритм действий при проведении гемотрансфузии

1) вход и выход принимают значение 0 или 1(поступает сигнал или нет)

2) Все входы персептрона связаны со всеми нейронами

3) Сеть является однослойной

4) Активационная функция – пороговая

Персептронная представляемость.

Персептронная представляемость – такая форма, которая может представить некоторую функцию.

Персептрон не может представить нейрон. Например, функцию XOR.

  X Y OUT
A0      
B1      
B0      
A1      

Z = x*w1+y*w2

Y = , y=kx+b, k= , b=

Z=xw1≠yw2

Как бы не меняли коэффициенты, никогда не сможем реализовать XOR. В персептроне можем менять только веса.

Обучение персептрона. Алгоритм обучения персептрона.

Способность искусственных нейронных сетей обучаться является их наиболее интригующим свойством. Подобно биологическим системам, которые они моделируют, эти нейронные сети сами моделируют себя в результате попыток достичь лучшей модели поведения.

Обучение может быть с учителем или без него. Для обучения с учителем нужен учитель, который оценивал бы поведение системы и управлял ее последующими модификациями. При обучении без учителя, рассматриваемого в последующих главах, сеть путем самоорганизации делает требуемые изменения. Обучение персептрона является обучением с учителем.

Алгоритм обучения персептрона

Шаг1:Выбрать элемент обучающей выборки (Xi,Yi)

Шаг1-1:Подать на вход НС вектор Xi и вычислить значение выхода NETi

Шаг1-2:Сравнить значения NETi и Yi

· Если NETi=Yi, то ничего не делаем

· Если NETi<Yi, то увеличить веса всех активных входов

· Если NETi>Yi, то уменьшить веса всех активных входов

Шаг2:Выбирать следующий элемент обучающей выборки (i=i+1) пока не обработаны все элементы (i<=N)

Шаг3:Проверить НС на правильность работы для всех элементов обучающей выборки.

· Если все NETi=Yi, то закончить работу алгоритма.

· Иначе перейти к шагу1.

Дельта правило - корректировка, применяемая к синаптическому весу нейрона, пропорциональна произведению сигнала ошибки на входной сигнал, его вызвавший.

δ=(T-Y).

Δi=ηδi,

(n+1)=(n)+Δi,


Дата добавления: 2015-11-30; просмотров: 40 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.009 сек.)