Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Обобщенно-регрессионные нейронные сети

Читайте также:
  1. Многослойные нейронные сети
  2. НЕЙРОННЫЕ СЕТИ ХОПФИЛДА И ХЭММИНГА.
  3. Технический анализ и нейронные сети
  4. Что лучше, статистические методы или нейронные сети?
  5. Являются ли нейронные сети языком описания?

Обобщенно-регрессионные нейронные сети (GRNN) используются в за­дачах регрессии. Их можно применять в задачах с выходными перемен­ными любых типов, но, как правило, с одной числовой выходной пере­менной (Patterson, 1996; Bishop, 1995).

Мы попробуем обучить GRNN-сеть предсказывать значение переменной PWIDTH в файле Iris.sta по переменным SLENGTH, SW1DTH и РLENGTH. В окне Редактор данных - Data Set Editor сделаем переменную FLOWER неучитываемой, а переменную PWIDTH- выходной (Output).

Откроем диалоговое окно Создать сеть - Create Network и зададим тип сети Регрессионная - Regression. Советник - Network Advisor автоматиче­ски предложит нам сеть с таким же числом радиальных элементов (второй слой), сколько имеется обучающих наблюдений. В отличие от PNN-сети, в GRNN-сети число элементов можно задать меньшим, чем число обу­чающих наблюдений, а при определении местоположения центров ис­пользовать алгоритм кластеризации. Однако, как правило, число центров не может быть сделано значительно меньше числа обучающих наблюде­ний без потери качества результата (допустимо брать половину или треть, но не на порядок меньше). Проще всего здесь использовать все множество обучающих наблюдений. Чтобы создать новую сеть, просто нажмите кнопку Создать - Create.

GRNN-сеть обучается с помощью диалогового окна Обобщенная регрес­сия - Generalized Regression.

Как и в случае PNN-сети, нужно выбрать единственный параметр обучения - коэффициент сглаживания (Smoothing), который здесь имеет тот же смысл, что и для PNN-сетей: он определяет ширину «шапок» гауссовых ядерных функции. В данной задаче подходящим является ко­эффициент сглаживания порядка 0,1. Расположение центров определяется с помощью специальных алгоритмов их размещения, имеющихся в пакете ST Neural Networks. Если число центров берется равным числу обучающих наблюдений, то нужно нажать кнопку Выборка - Sample (при этом просто копируются координаты всех центров). В противном случае обыч­но рекомендуется воспользоваться алгоритмом К-средние - К-Меаns. По­сле того, как центры размещены, нажмите кнопку Обучить - Train для запуска алгоритма обучения GRNN-сети. При этом будут сформированы третий и четвертый слои сети, служащие для оценки результата посредст­вом сглаживающих ядер.

После того, как сеть обучена, можно посмотреть результаты в окне Ста­тистики регрессии - Regression Statistics. Нужно стремиться получить на контрольном множестве величину отношения стандартных отклонений (S.D. Ratio) не хуже 0,4. Как и в случае PNN-сетей, можно добиться сколь угодно (обманчиво) хорошего значения этой величины на обучающем множестве, просто уменьшая достаточным образом коэффициент сглажи­вания.

 


Дата добавления: 2015-11-30; просмотров: 45 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.007 сек.)