Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Задание на выпускную квалификационную работу 2 2 страница



Нарушения питания, такие как переедание, злоупотребление алкоголем, алиментарная белковая недостаточность, пищевая аллергия могут быть непосредственной причиной панкреатит.

Без применения диетотерапии трудно рассчитывать на достаточный лечебный эффект. Правильно организованное питание может предотвратить развитие осложнений, обострений болезни и ее прогрессирование.

При обострении панкреатита больные нуждаются в госпитализации с ежедневным в течение первой недели контролем параметров крови, водного баланса, числа лейкоцитов, уровня ферментов в сыворотке крови, кислотно-щелочного равновесия.

Недостаточность функции поджелудочной железы проявляется синдромом нарушенного кишечного всасывания. По современным представлениям данный синдром не проявляется при хроническом панкреатите до тех пор, пока секреция ферментов не снизится до 10% своего исходного потенциала. Лечение недостаточности поджелудочной железы сводится к назначению диеты и заместительной ферментной терапии. При этом доза ферментного препарата подбирается каждому больному индивидуально.

Основным критерием эффективности лечения является динамика количества жира в кале и массы тела больного. Обычно лечение начинают с 3-х таблеток до, после и во время основных приемов пищи. При тяжелых формах количество препарата может достигать 20 и более таблеток ежедневно. Ферментные препараты при хроническом панкреатите назначаются на очень длительное время, часто пожизненно. Возможно добиться снижения их дозы при соблюдении строгой диеты с ограничением жира и белка. Однако при расширении диеты дозы ферментных препаратов должны увеличиваться.

Физиотерапия оказывает болеутоляющий эффект и определенное противовоспалительное действие.

 

 

1.3 Нейросетевое моделирование систем

1.3.1 Основные понятия нейросетевой модели

 

Искусственные нейронные сети (ИНС) — математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционирования биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети Маккалока и Питтса. После разработки алгоритмов обучения, получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.



ИНС представляют собой систему соединённых и взаимодействующих между собой простых процессоров (искусственных нейронов). Такие процессоры обычно довольно просты, особенно в сравнении с процессорами, используемыми в персональных компьютерах. Каждый процессор подобной сети имеет дело только с сигналами, которые он периодически получает, и сигналами, которые он периодически посылает другим процессорам. И, тем не менее, будучи соединёнными в достаточно большую сеть с управляемым взаимодействием, такие локально простые процессоры вместе способны выполнять довольно сложные задачи.

С точки зрения машинного обучения, нейронная сеть представляет собой частный случай методов распознавания образов, дискриминантного анализа, методов кластеризации и т. п. С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации. С точки зрения кибернетики, нейронная сеть используется в задачах адаптивного управления и как алгоритмы для робототехники. С точки зрения развития вычислительной техники и программирования, нейронная сеть — способ решения проблемы эффективного параллелизма. А с точки зрения искусственного интеллекта, ИНС является основой философского течения коннективизма и основным направлением в структурном подходе по изучению возможности построения (моделирования) естественного интеллекта с помощью компьютерных алгоритмов.

Нейронные сети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение. Это значит, что в случае успешного обучения сеть сможет вернуть верный результат на основании данных, которые отсутствовали в обучающей выборке, а также неполных и/или «зашумленных», частично искаженных данных.

ИНС может рассматриваться как направленный граф со взвешенными связями, в котором искусственные нейроны являются узлами. По архитектуре связей ИНС могут быть сгруппированы в два класса (рис. 2): сети прямого распространения, в которых графы не имеют петель, и рекуррентные сети, или сети с обратными связями.

 

 

Рисунок 2 - Систематизация архитектур сетей прямого распространения и рекуррентных (с обратной связью)

 

В наиболее распространенном семействе сетей первого класса, называемых многослойным перцептроном, нейроны расположены слоями и имеют однонаправленные связи между слоями. На рис. 2 представлены типовые сети каждого класса. Сети прямого распространения являются статическими в том смысле, что на заданный вход они вырабатывают одну совокупность выходных значений, не зависящих от предыдущего состояния сети. Рекуррентные сети являются динамическими, так как в силу обратных связей в них модифицируются входы нейронов, что приводит к изменению состояния сети.

 

1.3.2 Обучение нейронных сетей

 

Способность к обучению является фундаментальным свойством мозга. В контексте ИНС процесс обучения может рассматриваться как настройка архитектуры сети и весов связей для эффективного выполнения специальной задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся обучающей выборке. Функционирование сети улучшается по мере итеративной настройки весовых коэффициентов. Свойство сети обучаться на примерах делает их более привлекательными по сравнению с системами, которые следуют определенной системе правил функционирования, сформулированной экспертами.

Для конструирования процесса обучения, прежде всего, необходимо иметь модель внешней среды, в которой функционирует нейронная сеть - знать доступную для сети информацию. Эта модель определяет парадигму обучения.

Существуют три парадигмы обучения: "с учителем", "без учителя" (самообучение) и смешанная. В первом случае нейронная сеть располагает правильными ответами (выходами сети) на каждый входной пример. Веса настраиваются так, чтобы сеть производила ответы как можно более близкие к известным правильным ответам. Усиленный вариант обучения с учителем предполагает, что известна только критическая оценка правильности выхода нейронной сети, но не сами правильные значения выхода. Обучение без учителя не требует знания правильных ответов на каждый пример обучающей выборки. В этом случае раскрывается внутренняя структура данных или корреляции между образцами в системе данных, что позволяет распределить образцы по категориям. При смешанном обучении часть весов определяется посредством обучения с учителем, в то время как остальная получается с помощью самообучения.

Теория обучения рассматривает три фундаментальных свойства, связанных с обучением по примерам: емкость, сложность образцов и вычислительная сложность. Известны 4 основных типа правил обучения: коррекция по ошибке, машина Больцмана, правило Хебба и обучение методом соревнования.

Правило коррекции по ошибке. При обучении с учителем для каждого входного примера задан желаемый выход d. Реальный выход сети y может не совпадать с желаемым. Принцип коррекции по ошибке при обучении состоит в использовании сигнала (d-y) для модификации весов, обеспечивающей постепенное уменьшение ошибки. Обучение имеет место только в случае, когда перцептрон ошибается. Известны различные модификации этого алгоритма обучения.

Обучение Больцмана. Представляет собой стохастическое правило обучения, которое следует из информационных теоретических и термодинамических принципов. Целью обучения Больцмана является такая настройка весовых коэффициентов, при которой состояния видимых нейронов удовлетворяют желаемому распределению вероятностей. Обучение Больцмана может рассматриваться как специальный случай коррекции по ошибке, в котором под ошибкой понимается расхождение корреляций состояний в двух режимах.

Правило Хебба. Самым старым обучающим правилом является постулат обучения Хебба. Хебб опирался на следующие нейрофизиологические наблюдения: если нейроны с обеих сторон синапса активизируются одновременно и регулярно, то сила синаптической связи возрастает. Важной особенностью этого правила является то, что изменение синаптического веса зависит только от активности нейронов, которые связаны данным синапсом. Это существенно упрощает цепи обучения в реализации VLSI.

Обучение методом соревнования. В отличие от обучения Хебба, в котором множество выходных нейронов могут возбуждаться одновременно, при соревновательном обучении выходные нейроны соревнуются между собой за активизацию. Это явление известно как правило "победитель берет все". Подобное обучение имеет место в биологических нейронных сетях. Обучение посредством соревнования позволяет кластеризовать входные данные: подобные примеры группируются сетью в соответствии с корреляциями и представляются одним элементом.

При обучении модифицируются только веса "победившего" нейрона. Эффект этого правила достигается за счет такого изменения сохраненного в сети образца (вектора весов связей победившего нейрона), при котором он становится чуть ближе ко входному примеру.

Любая нейронная сеть, прежде всего, должна быть обучена. Процесс обучения заключается в подстройке внутренних параметров нейросети под конкретную задачу.

При обучении «классической» многослойной нейросети на вход подаются данные или индикаторы, а выход нейросети сравнивается с эталонным значением (с так называемым «учителем»). Разность этих значений называется ошибкой нейронной сети, которая и минимизируется в процессе обучения. Таким образом, обычные нейронные сети выявляют закономерности между входными данными и прогнозируемой величиной. Если такие закономерности есть, то нейросеть их выделит, и прогноз будет успешным.

Технология обучения с учителем НС предполагает наличие двух однотипных множеств:

· множество учебных примеров — используется для «настройки» НС;

· множество контрольных примеров — используется для оценки качества работы НС.

Элементами этих двух множеств есть пары (X, YI), где

· X — входной вектор для обучаемой НС;

· YI — верный (желаемый) выходной вектор для X.

Так же необходимо определить функцию ошибки E. Обычно это средняя квадратичная ошибка (mean squared error — MSE)

,

где

· P — количество обработанных НС примеров;

· yi — реальный выход НС;

· di — желаемый (идеальный) выход НС.

Процедура обучения НС сводится к процедуре коррекции весов связей HC. Целью процедуры коррекции весов есть минимизация функции ошибки E.

Общая схема обучения с учителем выглядит так:

1. Перед началом обучения весовые коэффициенты НС устанавливаются некоторым образом, на пример — случайно.

2. На первом этапе на вход НС в определенном порядке подаются учебные примеры. На каждой итерации вычисляется ошибка для учебного примера EL(ошибка обучения) и по определенному алгоритму производится коррекция весов НС. Целью процедуры коррекции весов есть минимизация ошибки EL.

3. На втором этапе обучения производится проверка правильности работы НС. На вход НС в определенном порядке подаются контрольные примеры. На каждой итерации вычисляется ошибка для контрольного примера EG (ошибка обобщения). Если результат неудовлетворительный то, производится модификация множества учебных примеров1 и повторение цикла обучения НС.

В случае однослойной сети алгоритм обучения с учителем прост. Желаемые выходные значения нейронов единственного слоя заведомо известны, и подстройка весов синаптических связей идет в направлении, минимизирующем ошибку на выходе сети.

 

1.3.3 Метод Розенблатта

 

Данный метод был предложен Ф.Розенблаттом в 1959 г. для НС, названной персептрон (perceptron). Персептрон рассматривался его автором не как конкретное техническое вычислительное устройство, а как модель работы мозга. Нужно заметить, что после нескольких десятилетий исследований современные работы по искусственным нейронным сетям редко преследуют такую цель. Персептрон имеет пороговую функцию активации, его схема представлена на рис.4.

 

 

Рисунок 4 – Однослойный персептрон

Процедуру обучения Розенблатта для однослойного персептрона можно представить так:

где

· xi — i-тый вход НС;

· dj — желаемый (идеальный) j-тый выход НС;

· α — коэффициент (скорость обучения) 0<α≤1

 

Простейший классический персептрон содержит нейрободобные элементы трех типов, назначение которых в целом соответствует нейронам рефлекторной нейронной сети, рассмотренной в предыдущей лекции. S-элементы формируют сетчатку сенсорных клеток, принимающих двоичные сигналы от внешнего мира.

Розенблатт называл такую нейронную сеть трехслойной, однако по современной терминологии, используемой в этой книге, представленная сеть обычно называется однослойной, так как имеет только один слой нейропроцессорных элементов. Однослойный персептрон характеризуется матрицей синаптических связей W от S- к A-элементам. Элемент матрицы отвечает связи, ведущей от i-го S-элемента к j-му A-элементу.

Были выявлены принципиальные неустранимые ограничения однослойных персептронов, и в последствии стал в основном рассматриваться многослойный вариант персептрона, в котором имеются несколько слоев процессорных элементов.

С сегодняшних позиций однослойный персептрон представляет скорее исторический интерес, однако на его примере могут быть изучены основные понятия и простые алгоритмы обучения нейронных сетей.

Весовые коэффициенты меняются только в том случае, если реальное выходное значение не совпадает идеальным выходным значением.

Полный алгоритм обучения Розенблатта строится следующим образом:

1. Весовые коэффициенты НС инициализируются малыми случайными значениями.

2. Подать на вход НС очередной учебный пример.

3. Если выход НС yj не совпадает с идеальным выходом dj, то происходит модификация весов по (1).

4. Цикл повторяется с п.2 пока весовые коэффициенты перестанут меняться.

 

1.3.4 Метод Уидроу-Хоффа

 

Персептрон Розенблатта ограничивается бинарными выходами. Уидроу и Хофф изменили модель Розенблатта. Их первая модель - ADALINE (Adaptive Linear Element) имела один выходной нейрон и непрерывную линейную функцию активации нейронов.

 

(2)


Метод обучения Уидроу-Хоффа известен еще как дельта-правило (delta-rule). Этот метод ставит своей целью минимизацию функции ошибки в пространстве весовых коэффициентов.

 

(3)


где

· - количество обработанных НС примеров

· E(k) - ошибка для -го примера

· yk - реальный выход НС для -го примера

· dk - желаемый (идеальный) выход НС для -го примера.

 

Минимизация осуществляется методом градиентного спуска


где


Таким образом, весовые коэффициенты изменяются по правилу

(4)


Полный алгоритм обучения методом Видроу-Хоффа строится следующим образом:

1. Задать скорость обучения a;(0<a<1)
задать минимальную ошибку сети ;
весовые коэффициенты НС инициализируются малыми случайными значениями.

2. Подать на вход НС очередной учебный пример;
рассчитать выход НС

3. Скорректировать веса по (4)

4. Цикл с п.2 повторяется, пока

(где - суммарная среднеквадратичная ошибка НС)

2 Анализ признаков панкреатита и разработка модели диагностики

2.1 Клинические характеристики больных с панкреатитом

 

В работе проведен анализ обследования 65 пациентов в возрасте от 28 до 70 лет за последний год. Набор материала проводился в БУЗ ВО «Семилукская ЦРБ им. А.В. Гончарова». У 35 пациентов был выявлен острый панкреатит, у 22 – хронический панкреатит, а у 8 – другая патология.

 

 

Рисунок 5 – Зависимость заболевания от возрастной группы

 

В результате данного анализа получается, что частота заболевания приходится на среднюю возрастную группу пациентов (рисунок 5). Можно заметить, что женщины в возрасте от 28 до 40 лет болеют чаще острым панкреатитом (рисунок 6), чем мужчины этой же возрастной категории (рисунок 7), а в возрасте от 41 до 60 лет количество болеющих мужчин острым панкреатитом резко увеличивается.

 

Рисунок 6 – Зависимость заболевания острый панкреатит в группе женщин

 

 

Рисунок 7 – Зависимость заболевания острый панкреатит по группе мужчин

 

Сводные данные по клиническим характеристикам острого и хронического панкреатитов представлены на рисунке 8.

 

 

Рисунок 8 – Значимость симптомов при различных формах панкреатита

 

Как видно из рисунка 8 наиболее выраженными признаками острого панкреатита являются интенсивные боли в животе и синюшные пятна на теле, а наиболее информативными для хронического панкреатита являются снижение массы тела и расстройство стула. Так же из гистограммы видно, что обезвоживание довольно показательно при постановке диагноза острый панкреатит.

На рисунке 9 представлена диаграмма УЗИ признаков панкреатита при различных формах заболевания.

 

 

Рисунок 9 – УЗИ признаки панкреатита при различных формах заболевания

 

Проведя анализ диаграммы УЗИ признаков панкреатита, можно сказать, что некоторые признаки такие, как появление сальниковой сумки и увеличение отделов ПЖ, характерны только для острого панкреатита. Что играет немаловажную роль при дальнейшем выборе тактики лечения. Остальные показания характерны как для острого, так и для хронического панкреатита.

Сводные данные по клиническим исследованиям крови и мочи представлены на рисунке 10.

 

 

Рисунок 10 – Клинические проявления при различных формах острого панкреатита

 

Из рисунка 10 видно, что наиболее информативными и выраженными клиническими проявлениями являются два показателя – это повышенное содержание амилазы в крови и в моче. Показатель активности фосфатазы в крови является часто встречаемым признаком, но его информативность не значительна, так как данный показатель присутствует при любом воспалительном процессе, протекающем в организме человека.

 

2.2 Оценка состояния пациентов с заболеваниями острого и хронического панкреатитов на основе нейросетевого моделирования

 

Для построения нейронных сетей для диагностики панкреатита острой, хронической формы и другой патологии, был построен ансамбль нейросетей, состоящий из 15 моделей. Для построения использовался пакет STATISTICA 6 и алгоритм обучения с обратным распознаванием ошибки. Сети проходили обучение на 50 примерах, 10 примеров выделялись в качестве тестовых, из них 5 – острый панкреатит, 3 – хронический панкреатит, 2 – другая патология, и 7 в качестве контрольных, из них 3– острый панкреатит, 3 – хронический панкреатит, 1 – другая патология.

Входами сетей являются вектора классификационных признаков заболеваний панкреатита: боль в животе, многократная рвота, вздутие живота, обезвоживание, снижение массы тела, синюшные пятна на теле, расстройство стула, признаки желтухи, увеличение отделов ПЖ, активность амилазы в крови, обнаружение кальцификации ПЖ, активность амилазы в моче, появление сальниковой сумки, повышение алкалинфосфата и трансаминазы, повышение активности фосфатазы в крови, Х16 – Х18 – размеры поджелудочной железы (тело, головка, хвост соответственно), Х19 – Х21 - эхогенность.

Все сети характеризуются 3 выходами, соответствующими классу заболеваний: острый панкреатит, хронический панкреатит и другая патология.

Как уже отмечалось было построено 15 моделей. Обучение проводилось в следующих режимах:

НС№ 1 – равномерное упрощение сети: сокращение числа входных сигналов (3), а также сокращение числа нейронов в первом скрытом слое (3);

НС№ 2 – равномерное упрощение сети: сокращение числа входных сигналов (5) и сокращение числа нейронов в первом скрытом слое(5), а также удаление синапсов (15);

НС№ 3 – сокращение числа нейронов в первом скрытом слое (4);

НС№ 4 – равномерное упрощение сети: сокращение числа входных сигналов (7), сокращение числа нейронов в первом скрытом слое (3);

ИНС№ 5 – равномерное упрощение сети: сокращение числа входных сигналов (6), сокращение числа нейронов в первом скрытом слое (4), а также удаление синапсов (14);

НС№ 6 – равномерное упрощение сети: сокращение числа входных сигналов (4), а также сокращение числа нейронов в первом скрытом слое (2) и сокращение числа нейронов во втором скрытом слое (2);

НС№ 7 – равномерное упрощение сети: равномерное упрощение сети: сокращение числа входных сигналов (9) и сокращение числа нейронов во втором скрытом слое (1), а также удаление синапсов (13);

НС№ 8 – равномерное упрощение сети: сокращение числа входных сигналов (6), а также сокращение числа нейронов в первом скрытом слое (2);

НС№ 9 – модель на основе многослойного персептрона с 3 входами и двумя промежуточными слоями;

НС№10 – равномерное упрощение сети: сокращение числа входных сигналов (10), а также сокращение числа нейронов в первом скрытом слое (5);

НС №11 – число входных сигналов (21) число нейронов в скрытом слое(12).

НС№12 – равномерное упрощение сети: сокращение числа входных сигналов (11) и сокращение числа нейронов в первом скрытом слое (6);

НС№ 13 – равномерное упрощение сети: сокращение числа входных сигналов (19), а также сокращение числа нейронов в первом скрытом слое (2);

НС№ 14 – сокращение числа входных сигналов (8);

НС№ 15- число входных сигналов (20) число нейронов в скрытом слое(10).

Результаты моделирования представлены в таблице 1.

Анализируя полученные результаты, мы пришли к выводу, что наилучшей является НС№9и НС№11, НС№15 т. к. обладают наибольшей достоверностью постановки диагноза


Таблица 1 – Характеристика эффективности разработанных НС

сети

Правильно

распознанные примеры в тестовой выборке

Правильно распознанные примеры в контрольной

выборке

Число скрытых слоев

Кол-во

удаленных

входов

(из 21)

Кол-во

удаленных

нейронов

1 скрытого

слоя (из 11)

Кол-во

удаленных

нейронов

2 скрытого

слоя

 

Кол-во

удаленных

синапсов

Прогноз сети,

%

Кол-во

%

Кол-во

%

               

-

0 из 176

70,13

               

-

15 из 176

53,24

               

-

20 из 234

51,72

               

-

0 из 234

65,12

                 

14 из 162

45,36

                 

10 из 162

60,32

                 

13 из 242

45,35

               

-

0 из 171

45,72

Продолжение таблицы 1

сети

Правильно

распознанные примеры в тестовой выборке

Правильно распознанные примеры в контрольной

выборке

Число скрытых слоев

Кол-во

удаленных

входов

(из 21)

Кол-во

удаленных

нейронов

1 скрытого

слоя (из 11)

Кол-во

удаленных

нейронов

2 скрытого

слоя

(из 8)

Кол-во

удаленных

синапсов

Прогноз сети,

%

Кол-во

%

Кол-во

%

                 

0 из 334

77,23

               

-

0 из 96

54,43

               

-

0 из 312

 
               

-

0 из 66

51,12

               

-

0 из 228

62,23

               

-

18 из 228

53,29

               

-

14 из 168

 

 

Таким образом, чтобы классифицировать заболевания о панкреатита были выбраны три нейронные сети на базе многослойного персептрона. Архитектура выбранных нейронных сетей представлены на рисунке 11, рисунке 12 и рисунке 13, где


Дата добавления: 2015-09-29; просмотров: 27 | Нарушение авторских прав







mybiblioteka.su - 2015-2024 год. (0.098 сек.)







<== предыдущая лекция | следующая лекция ==>