Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Вероятностное обобщение модели Хопфилда и статистическая машина.

Читайте также:
  1. IV. Моделирование рекламной кампании по продвижению программного обеспечения отраслевой направленности.
  2. Quot;Модели жизни" экологической теории в практике социальной работы
  3. Аналоговое моделирование
  4. Архитектура сетей Хопфилда и Хэмминга. Устойчивость сетей Хэмминга.
  5. Архитектура, алгоритм Функционирования и режимы работы сети хопфилда
  6. Без учителя - самоорганизующаяся карта Кохонена, сеть Хопфилда
  7. В соответствующих организациях, которое возможно там, где выделяется статистическая

Если правила изменения состояний для бинарной сети Хопфилда заданы статистически, а не детерминированно, как в уравнении (6.1), то возникает система, имитирующая отжиг. Для ее реализации вводится вероятность изменения веса как функция от величины, на которую выход нейрона OUT превышает его порог. Пусть

E k = NETk - k,

где NETk - выход NET нейрона k;

- порог нейрона k, и

,

(отметьте вероятностную функцию Больцмана в знаменателе),

где Т - искусственная температура.

В стадии функционирования искусственной температуре Т приписывается большое значение, нейроны устанавливаются в начальном состоянии, определяемом входным вектором, и сети предоставляется возможность искать минимум энергии в соответствии с нижеследующей процедурой:

Приписать состоянию каждого нейрона с вероятностью р k значение единица, а с вероятностью 1- р k - нуль.

Постепенно уменьшать искусственную температуру и повторять шаг 1, пока не будет достигнуто равновесие.

Обобщенные сети

Принцип машины Больцмана может быть перенесен на сети практически любой конфигурации, хотя устойчивость не гарантируется. Для этого достаточно выбрать одно множество нейронов в качестве входов и другое множество в качестве выходов. Затем придать входному множеству значения входного вектора и предоставить сети возможность релаксировать в соответствии с описанными выше правилами 1 и 2.

Процедура обучения для такой сети, описанная в [5], состоит из следующих шагов:

Вычислить закрепленные вероятности.

А) придать входным и выходным нейронам значения обучающего вектора;

Б) предоставить сети возможность искать равновесие;

В) записать выходные значения для всех нейронов;

Г) повторить шаги от а до в для всех обучающих векторов;

Д) вычислить вероятность, т. е. по всему множеству обучающих векторов вычислить вероятность того, что значения обоих нейронов равны единице.

Вычислить незакрепленные вероятности.

а) предоставить сети возможность «свободного движения» без закрепления входов или выходов, начав со случайного состояния;

б) повторить шаг 2а много раз, регистрируя значения всех нейронов;

в) вычислить вероятность, т. е. вероятность того, что значения обоих нейронов равны единице.

3. Скорректировать веса сети следующим образом:

,

где д w ij - изменение веса w ij,

з - коэффициент скорости обучения.

Архитектура и принципы работы нейронной сети ДАП (двунаправленная ассоциативная память).

Память человека часто является ассоциативной; один предмет напоминает нам о другом, а этот другой о третьем. Если позволить нашим мыслям, они будут перемещаться от предмета к предмету по цепочке умственных ассоциаций. Кроме того, возможно использование способности к ассоциациям для восстановления забытых образов. Если мы забыли, где оставили свои очки, то пытаемся вспомнить, где видели их, в последний раз, с кем разговаривали и что делали. Посредством этого устанавливается конец цепочки ассоциаций, что позволяет нашей памяти соединять ассоциации для получения требуемого образа.

Ассоциативная память, рассмотренная в гл. 6, является, строго говоря, автоассоциативной, это означает, что образ может быть завершен или исправлен, но не может быть ассоциирован с другим образом. Данный факт является результатом одноуровневой структуры ассоциативной памяти, в которой вектор появляется на выходе тех же нейронов, на которые поступает входной вектор.

Двунаправленная ассоциативная память (ДАП) является гетероассоциативной; входной вектор поступает на один набор нейронов, а соответствующий выходной вектор вырабатывается на другом наборе нейронов. Как и сеть Хопфилда, ДАП способна к обобщению, вырабатывая правильные реакции, несмотря на искаженные входы. Кроме того, могут быть реализованы адаптивные версии ДАП, выделяющие эталонный образ из зашумленных экземпляров. Эти возможности сильно напоминают процесс мышления человека и позволяют искусственным нейронным сетям сделать шаг в направлении моделирования мозга.

В последних публикациях [9,12] представлено несколько форм реализации двунаправленной ассоциативной памяти. Как большинство важных идей, изложенные в этих работах идеи имеют глубокие корни; например, в работе Гроссберга [6] представлены некоторые важные для ДАП концепции. В данной работе ссылки приводятся не с целью разрешения вопроса о приоритете исследовательских работ, а исключительно для освещения их вклада в исследовательскую тематику.


Дата добавления: 2015-11-30; просмотров: 47 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.007 сек.)