Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Персептрон - инструмент для классификации образов.

Читайте также:
  1. А. Самонаблюдение без помощи инструментов
  2. Аа. Игра и музыкальные инструменты
  3. Алгоритм обучения многослойного персептрона с учителем.
  4. АРЕАЛЬНАЯ И ФУНКЦИОНАЛЬНАЯ КЛАССИФИКАЦИИ ЯЗЫКОВ
  5. БАРНЫЕ АКСЕССУАРЫ И ИНСТРУМЕНТЫ
  6. Бронхопневмония: этиология, классификации, диагностика, лечение, профилактика.
  7. В качестве инструмента для оценки степени удовлетворения потребностей он

Персептрон - это некоторый инструмент, который способен "запоминать" ("обучиться") - какой образ относится к какому классу. После такого "обучения", в идеале, он должен уметь правильно "узнавать" и другие образы, не входившие в обучающее множество, но достаточно похожие на них, или сообщать, что образ не похож ни на один из множества обучающих образов. Степень "достаточной похожести" определяется удачностью выбора признакового множества. А способность персептрона "обучиться" зависит от разделимости признакового множества, то есть от уникальности наборов признаков с точностью до класса (иными словами - не пересекаются ли области, ограничивающие свои классы). Итак, персептрон - это однослойная нейронная сеть. Принцип его работы таков:

1. Задается и обнуляется матрица весов.

2. Обучающий образ, представленный входным вектором X (нулей и единиц) умножается на матрицу весов. В результате получается вектор NET, размерностькоторого равна количеству нейронов.

3. Строим на основе полученного произведения выходной вектор (такой же размерности) по формуле: yi = F (NETi), где F - пороговая функция. В нашем случае это линейная функция
.

4. Сравниваем покомпонентно получившийся вектор Y с правильным ответом. Под ответом подразумевается вектор такой же размерности, что и выходной. Его надо заранее подготовить, и, разумеется, для каждого класса это должен быть свой уникальный вектор.

5. При этом сравнении мы выполняем следующие действия (для каждой компоненты векторов):
Если j -тая компонента результата больше j -той компоненты ответа, мы вычитаем входной (!) вектор из j -того столбца матрицы весов, то есть столбца j -того нейрона (что бы при последующем умножении входного вектора на матрицу скалярное произведение оказалось меньше).
Если j -тая компонента результата меньше j -той компоненты ответа, мы прибавляем входной (!) вектор к j -тому столбцу матрицы весов.
Таким образом, входной вектор корректирует матрицу весов под свои значения.

6. Так же персептрон обучается на втором обучающем образе, третьем,..., k -том.

7. Если хотя бы один обучающий образ изменил матрицу весов, повторяем все еще раз с шага 2. Существует теорема, что если классы обучающих образов разделимы, то рано или поздно матрица перестанет меняться (обучится).

Одна итерация обучения персептрона на одном образе представлена на рисунке 7:

Рисунок 7 – Итерация в персептроне

 


Дата добавления: 2015-11-30; просмотров: 37 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.007 сек.)