Читайте также:
|
|
Функция Лагранжа:
Выделим составляющие функции Лагранжа, зависящие от групп основных переменных и
:
.
Ограничимся рассмотрением случая .
Проведем минимизацию функции Лагранжа по основным переменным и
. Минимизация по
дает:
Точка минимума недифференцируемой в нуле функции зависит от значения суммы
по отношению к интервалу
. Рассмотрим отдельно точки минимума функций в верхней и нижней строчках последнего выражения, т.е. на левой
и правой
полуоси действительной переменной
.
Если , то в верхней строчке коэффициент
, и
определяется условием
, т.е.
,
т.е. минимум достигается на левой полуоси . В нижней строчке в этом случае коэффициент даже отрицателен
, и минимум
, т.е.
,
и минимум на правой полуоси не достигается, выходя из нее влево.
Если , то минимум функции на левой полуоси не достигается в ее пределах, уходя вправо
. Аналогично, на правой полуоси минимум выходит из нее влево
.
Наконец, если , то на левой полуоси точки минимума нет
, в то время как на правой полуоси точка минимума остается в ее пределах
.
Итак:
В общем случае результат минимизации по :
Эквивалентная запись результата минимизации по при
:
.
Литература
[1]. Браверман Э.М. Опыты по обучению машины распознаванию зрительных образов. Автоматика и телемеханика, т. XXIII, № 3, 1962.
[2]. V. Vapnik. Statistical Learning Theory. John-Wiley & Sons, Inc., 1998, 736 p.
[3]. ДеГроот М. Оптимальные статистические решения. М.:, Мир, 1974.
[4]. L. Wang, J. Zhu, H. Zou. The doubly regularized support vector machine. Statistica Sinica, Vol. 16, 2006, pp. 589-615.
[5]. J. Zhu, S. Rosset, T. Hastie, R. Tibshirani. 1-norm Support Vector Machines. Advances in Neural Information Processing Systems, Cambridge, MA: MIT Press, 2004, vol. 16.
[6]. Сухарев А.Г., Тимохов А.В. Курс методов оптимизации. Учебное пособие. М.: Физматлит, 2005, 368 с.
[7]. G.C. Cawley, N.L.C. Talbot. Fast exact leave-one-out cross-validation of sparse least-squares support vector machines. Neural Networks, 2004, Vol. 17, pp. 1467-1475.
[8]. M.S. Bartlett. An inverse matrix adjustment arising in discriminant analysis. Annals of Mathematical Statistics, 1951, Vol. 22(1), pp. 1071-1111.
[9]. H. Zou and T. Hastie. Regularization and variable selection via the elastic net. Journal of the Royal Statistical Society, 67: 301-320, 2005.
[10]. R. Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society, 58(1): 267-288, 1996.
Дата добавления: 2015-10-26; просмотров: 145 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Линейная модель числовой зависимости. Центрированная и нормированная обучающая совокупность | | | Концептуальная база восстановления зависимостей: гипотеза компактности |