Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Алгоритм обучения с заданной селективностью отбора признаков

Читайте также:
  1. CRC-алгоритмы обнаружения ошибок
  2. I. Выявление неудовлетворительной структуры баланса согласно ФЗ «О несостоятельности (банкротстве)» (Кириллова: для выявления признаков банкротства у государственных предприятий).
  3. V. УСЛОВИЯ УЧАСТИЯ И ПОРЯДОК ОТБОРА
  4. VII. Алгоритмы продаж
  5. Алгоритм 4. Транспонування бази даних
  6. Алгоритм 5. Пошук автофильтром
  7. Алгоритм Apriori

Критерий обучения по методу опорных векторов с релевантными компонентами несложно алгоритмически реализовать, разделив все множество варьируемых переменных на два подмножества и с применением метода итерационного попеременного спуска (метода Гаусса-Зайделя). Итерационный процесс естественно начать, например, с исходных единичных значений .

Пусть на очередной итерации получены значения . Тогда оптимизация по сводится к минимизации обобщенного критерия опорных векторов со взвешенными признаками:

Для найденного приближения к искомому направляющему вектору оптимизация по сводится к решению независимых задач:

, .

Приравнивание производной по дает условие

Здесь существенным является только условие равенства нулю выражения в скобках, поскольку побочное условие вытекает из того, что положительная производная целевой функции в пределе уменьшается до нуля при достаточно больших значениях , и целевая функция в целом имеет только одну точку минимума. Как следствие, очередные значения дисперсий компонент направляющего вектора определяются отношениями

.

В частности, из последней формулы хорошо видно, что при нулевой селективности оценки всех дисперсий тождественно равны единице , и критерий вырождается в обычный критерий опорных векторов, сохраняющий все признаки.

При правило вычисления значений дисперсий на очередной итерации принимает вид

.

В этом случае алгоритм подавляет почти все признаки, оставляя один, редко два из них.

Что же касается выбора наиболее подходящего значения параметра селективности , то это выбор нельзя сделать ни из каких байесовских соображений, поскольку всегда максимальное значение совместного апостериорного распределения подлежащих оцениванию параметров модели данных будет наибольшим при самой «широкой» модели, т.е. при нулевой селективности. Значение параметра , как и любого структурного параметра модели, следует, используя тот либо иной критерий кросс-валидации на основе деления обучающей совокупности на основную и контрольную подвыборки.

4 Отбор подмножества информативных признаков в процессе обучения распознаванию двух классов объектов по методу опорных векторов:
Метод опорных признаков


Дата добавления: 2015-10-26; просмотров: 166 | Нарушение авторских прав


Читайте в этой же книге: Диполь в метрическом пространстве | Концепция оптимальной разделяющей гиперплоскости в пространстве действительных признаков объектов и классический метод опорных векторов | Вероятностная постановка задачи обучения распознаванию двух классов объектов посредством выбора разделяющей гиперплоскости | Априорные и апостериорные вероятности классов объектов | Линейная модель числовой зависимости. Центрированная и нормированная обучающая совокупность | Общий вид функции Лагранжа |
<== предыдущая страница | следующая страница ==>
Независимые совместные априорные нормальные-гамма распределения элементов направляющего вектора и их дисперсий| Двойственная задача обучения

mybiblioteka.su - 2015-2024 год. (0.01 сек.)