Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Области применения сети

Читайте также:
  1. II. Определение культуры Э. Б. Тайлора как основа формирования предметной области культурной антропологии.
  2. Административное задержание граждан и транспортных средств, административный арест имущества: основания и порядок применения.
  3. Административные правонарушения в области торговли и финансов
  4. Анестезия в области большого небного отверстия
  5. Ассамблея народов Челябинской области и региональные национально-культурные автономии в системе мер политико-правового регулирования межнациональных отношений.
  6. Безопасность применения пищевых добавок
  7. Болезни в области венчика и свода межпальцевой щели.

Сеть Хопфилда может быть использована как ассоциативная память, для решения некоторых задач оптимизации, а также как фильтр (задачи распознавания образов).

Чтобы организовать устойчивую автоассоциативную память с помощью данной сети с обратными связями, веса должны выбираться так, чтобы образовывать энергетические минимумы в нужных вершинах единичного гиперкуба.

На каждом итерации алгоритма функционирования сети понижается значение энергии нейронной сети. Это позволяет решать комбинаторные задачи оптимизации, если они могут быть сформулированы как задачи минимизации энергии.

16. Обучение нейросетей с поощрением и без поощрения (Supervised and unsupervised learning). Примеры.

Обучение с поощрением (англ. reinforcement learning) — один из способов машинного обучения, в ходе которого испытуемая система (агент) обучается, взаимодействуя с некоторой средой. С точки зрения кибернетики, является одним из видов кибернетического эксперимента. Откликом среды (а не специальной системы управления подкреплением, как это происходит в обучении с учителем) на принятые решения являются сигналы подкрепления, поэтому такое обучение является частным случаем обучения с учителем, но учителем является среда или ее модель. Также нужно иметь в виду, что некоторые правила подкрепления базируются на неявных учителях, например, в случае ИНС, на одновременной активности формальных нейронов, из-за чего их можно отнести к обучению без учителя.

Среда и агент

Агент воздействует на среду, а среда воздействует на агента. О такой системе говорят, что она имеет обратную связь. Такую систему нужно рассматривать как единое целое, и поэтому линия раздела между средой и агентом достаточно условна. Конечно, с анатомической или физической точек зрения между средой и агентом (организмом) существует вполне определенная граница, но если эту систему рассматривать с функциональной точки зрения, то разделение становится не четким. Например, резец в руке скульптора можно считать либо частью сложного биофизического механизма, придающего форму куску мрамора, либо частью материала, которым пытается управлять нервная система.

[править]Система подкрепления и ее виды

Розенблатт пытался классифицировать различные алгоритмы обучения, называя их системами подкрепления.[1] Он даёт следующее определение:

Системой подкрепления называется любой набор правил, на основании которых можно изменять с течением времени матрицу взаимодействия (или состояние памяти) перцептрона.

Кроме классического метода обучения перцептрона — метода коррекции ошибки, которого можно отнести к обучению с учителем, Розенблатт также ввёл понятие об обучении без учителя, предложив несколько способов обучения:

§ Альфа-системой подкрепления называется система подкрепления, при которой веса всех активных связей cij, которые ведут к элементу uj, изменяются на одинаковую величину r, а веса неактивных связей за это время не изменяются.

§ Гамма-системой подкрепления называется такое правило изменения весовых коэффициентов некоторого элемента, при котором веса всех активных связей сначала изменяются на равную величину, а затем из их всех весов связей вычитается другая величина, равная полному изменению весов всех активных связей, деленному на число всех связей. Эта система обладает свойством консервативности относительно весов, так как у нее полная сумма весов всех связей не может ни возрастать, ни убывать.

Обучение с поощрением

При решении задачи кластеризации или автоматической классификации отсутствует обучающая последовательность образов с метками классов. Этот режим называется обучением без поощрения. Для его обозначения иногда используется методологически менее корректный термин «обучение без учителя». Алгоритмы кластеризации оперируют мерами сходства и различия отдельных образов и на этой основе осуществляют разбиение образов на группы (кластеры), в каждой (в каждом) из которых обьединяются естественно близкие образы. Методы автоматической классификации (кластеризации) широко используются для извлечения знаний (Data Mining), сжатия данных, медицинской и технической.

Пример: Задача коммивояжёра (англ. Travelling salesman problem, TSP) (коммивояжёр — разъездной сбытовой посредник) - одна из самых известных задач комбинаторной оптимизации, заключающаяся в отыскании самого выгодного маршрута, проходящего через указанные города хотя бы по одному разу с последующим возвратом в исходный город. В условиях задачи указываются критерий выгодности маршрута (кратчайший, самый дешёвый, совокупный критерий и т. п.) и соответствующие матрицы расстояний, стоимости и т. п. Как правило, указывается, что маршрут должен проходить через каждый город только один раз — в таком случае выбор осуществляется среди гамильтоновых циклов.

Существует несколько частных случаев общей постановки задачи, в частности геометрическая задача коммивояжёра (также называемая планарной или евклидовой, когда матрица расстояний отражает расстояния между точками на плоскости), треугольная задача коммивояжёра(когда на матрице стоимостей выполняется неравенство треугольника), симметричная и асимметричная задачи коммивояжёра. Также существует обобщение задачи, так называемая обобщённая задача коммивояжёра.

Общая постановка задачи, впрочем как и большинство её частных случаев, относится к классу NP-полных задач.

17. Алгоритм Кохонена и его сходимость (одномерный и двумерный случай)

Нейронные сети Кохонена (Kohonen neural network) — класс нейронных сетей, основным элементом которых является слой Кохонена. Слой Кохонена состоит из адаптивных линейных сумматоров («линейных формальных нейронов»). Как правило, выходные сигналы слоя Кохонена обрабатываются по правилу «победитель забирает всё»: наибольший сигнал превращается в единичный, остальные обращаются в ноль.

По способам настройки входных весов сумматоров и по решаемым задачам различают много разновидностей сетей Кохонена.[1] Наиболее известные из них:

§ Сети векторного квантования сигналов[1], тесно связанные с простейшим базовым алгоритмом кластеризации (метод динамических ядер или K-средних, то есть K-means)

§ Самоорганизующиеся карты Кохонена (Self-Organising Maps, SOM)[1]

§ Сети векторного квантования, обучаемые с учителем (Learning Vector Quantization)[1]

Идея и алгоритм обучения

Задача векторного квантования состоит, по своему существу, в наилучшей аппроксимации всей совокупности векторов данных кодовыми векторами . Самоорганизующиеся карты Кохонена (англ. Self-Organising Maps, SOM) также аппроксимируют данные, однако при наличии дополнительной структуры в совокупности кодовых векторов (англ. codebook). Предполагается, что априори задана некоторая симметричная таблица «мер соседства» (или «мер близости») узлов: для каждой пары () определено число () при этом диагональные элементы таблицы близости равны единице ().

Векторы входных сигналов обрабатываются по одному, для каждого из них находится ближайший кодовый вектор («победитель», который «забирает всё») . После этого все кодовые векторы , для которых , пересчитываются по формуле

где — шаг обучения. Соседи кодового вектора — победителя (по априорно заданной таблице близости) сдвигаются в ту же сторону, что и этот вектор, пропорционально мере близости.

Чаще всего, таблица кодовых векторов представляется в виде фрагмента квадратной решётки на плоскости, а мера близости определяется, исходя из евклидового расстояния на плоскости.

Самоорганизующиеся карты Кохонена служат, в первую очередь, для визуализации и первоначального («разведывательного») анализа данных.[1] Каждая точка данных отображается соответствующим кодовым вектором из решётки. Так получают представление данных на плоскости («карту данных»). На этой карте возможно отображение многих слоёв: количество данных, попадающих в узлы (то есть «плотность данных»), различные функции данных и так далее. При отображении этих слоёв полезен аппарат географических информационных систем(ГИС). В ГИС подложкой для изображения информационных слоев служит географическая карта. Карта данных является подложкой для произвольного по своей природе набора данных. Она служит заменой географической карте там, где ее просто не существует. Принципиальное отличие в следующем: на географической карте соседние объекты обладают близкими географическими координатами, на карте данных близкие объекты обладают близкими свойствами. С помощью карты данных можно визуализировать данные, одновременно нанося на подложку сопровождающую информацию (подписи, аннотации, атрибуты, информационные раскраски).[1] Карта служит также информационной моделью данных. С её помощью можно заполнять пробелы в данных. Эта способность используется, например, для решения задач прогнозирования.

Двумерный алгоритм

В качестве простого примера:), попробуйте представить себе скомканную скатерть выброшенную в 10000-мерное пространство. Ее можно расстелить на двумерном столе, и тогда рисунок на ней будет легко рассмотреть. Вот именно такое "расстилание на столе" и делает "самоорганизующаяся карта признаков Кохонена" и производные от нее алгоритмы.

Алгоритм работает следующим образом. На множестве позиционных векторов вводится отношение соседства, позволяющее для каждых двух векторов получить скалярный коэффициент близости, величиной от 0 до 1. Обычно, это отношение соседства распределяет множество векторов по узлам N-мерной (в случае SOM - двухмерной) решетки. При обучении сети, в сторону вектора выборки смещается не только ближайший позиционный вектор, но и соседние с ним (т.е. с коэффициентом близости большим нуля) позиционные вектора. Но величина этого смещения меньше, чем у нейрона-победителя, в пропорции коэффициента близости.

В простейшем случае используют двумерную решетку и коэффициент близости порядка 0.2 у непосредственных соседей.

После обучения, в целях визуализации, можно раскрасить нейроны в узлах решетки в цвета, интенсивность которых пропорциональна количеству векторов, ближайших к этому позиционному вектору.

Пример

Двумерная решетка:

1 -- 2 -- 3| | |4 -- 5 -- 6| | |7 __ 8 __ 9

Одномерный:

Если величина окрестности положена равной нулю для всех этапов, алгоритм сводится к обычному методу обнаружения кластеров. Его можно применять и с одномерным слоем, задавая или не задавая окрестность.


Дата добавления: 2015-11-30; просмотров: 38 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.009 сек.)