Читайте также:
|
|
Персептрон - это некоторый инструмент, который способен "запоминать" ("обучиться") - какой образ относится к какому классу. После такого "обучения", в идеале, он должен уметь правильно "узнавать" и другие образы, не входившие в обучающее множество, но достаточно похожие на них, или сообщать, что образ не похож ни на один из множества обучающих образов. Степень "достаточной похожести" определяется удачностью выбора признакового множества. А способность персептрона "обучиться" зависит от разделимости признакового множества, то есть от уникальности наборов признаков с точностью до класса (иными словами - не пересекаются ли области, ограничивающие свои классы). Итак, персептрон - это однослойная нейронная сеть. Принцип его работы таков:
1. Задается и обнуляется матрица весов.
2. Обучающий образ, представленный входным вектором X (нулей и единиц) умножается на матрицу весов. В результате получается вектор NET, размерностькоторого равна количеству нейронов.
3. Строим на основе полученного произведения выходной вектор (такой же размерности) по формуле: yi = F (NETi), где F - пороговая функция. В нашем случае это линейная функция
.
4. Сравниваем покомпонентно получившийся вектор Y с правильным ответом. Под ответом подразумевается вектор такой же размерности, что и выходной. Его надо заранее подготовить, и, разумеется, для каждого класса это должен быть свой уникальный вектор.
5. При этом сравнении мы выполняем следующие действия (для каждой компоненты векторов):
Если j -тая компонента результата больше j -той компоненты ответа, мы вычитаем входной (!) вектор из j -того столбца матрицы весов, то есть столбца j -того нейрона (что бы при последующем умножении входного вектора на матрицу скалярное произведение оказалось меньше).
Если j -тая компонента результата меньше j -той компоненты ответа, мы прибавляем входной (!) вектор к j -тому столбцу матрицы весов.
Таким образом, входной вектор корректирует матрицу весов под свои значения.
6. Так же персептрон обучается на втором обучающем образе, третьем,..., k -том.
7. Если хотя бы один обучающий образ изменил матрицу весов, повторяем все еще раз с шага 2. Существует теорема, что если классы обучающих образов разделимы, то рано или поздно матрица перестанет меняться (обучится).
Одна итерация обучения персептрона на одном образе представлена на рисунке 7:
Рисунок 7 – Итерация в персептроне
Дата добавления: 2015-11-30; просмотров: 37 | Нарушение авторских прав