Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 11 страница

ГЛАВА 13. КОДИРОВАНИЕ ИСТОЧНИКА 821 | Основы теории принятая статистических решений 1051 1 страница | Основы теории принятая статистических решений 1051 2 страница | Основы теории принятая статистических решений 1051 3 страница | Основы теории принятая статистических решений 1051 4 страница | Основы теории принятая статистических решений 1051 5 страница | Основы теории принятая статистических решений 1051 6 страница | Основы теории принятая статистических решений 1051 7 страница | Основы теории принятая статистических решений 1051 8 страница | Основы теории принятая статистических решений 1051 9 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

(3.6)

Эти плотности условных вероятностей показаны на рис. 3.2. Плотность p(z|si), изобра­женная справа, называется правдоподобием sj и показывает плотность вероятности слу­чайной переменной z(T) при условии передачи символа Подобным образом функция p(z\s2) (слева) является правдоподобием s2 и показывает плотность вероятности z(T) при условии передачи символа s2. Ось абсцисс, z(7), представляет полный диапазон возмож­ных значений выборки, взятой в течение этапа 1, изображенного на рис. 3.1.

Рис. 3.2. Плотности условных вероятностей: p(z|si) и р(г|^)

 

После того как принятый сигнал преобразован в выборку, действительная форма сиг­нала уже не имеет значения; сигналы всех типов, преобразованные в одинаковое значение z(7), идентичны для схемы детектирования. Далее будет показано, что оптимальный при­нимающий фильтр (согласованный фильтр) на этапе 1 (рис. 3.1) отображает все сигналы с равными энергиями в одну и ту же точку z(T). Следовательно, важным параметром процес­са детектирования является энергия (а не форма) принятого сигнала, именно поэтому ана­лиз детектирования для видеосигналов не отличается от анализа для полосовых сигналов. Поскольку z(7) является сигналом напряжения, пропорциональным энергии принятого символа, то чем больше амплитуда г(7), тем более достоверным будет процесс принятия решения относительно цифрового значения сигнала. На этапе 2 детектирование выполня­ется посредством выбора гипотезы, являющейся следствием порогового измерения

Я,

z(X)^y, (3.7)

Н2

где Hi и Н2 — две возможные (бинарные) гипотезы. Приведенная запись указыва­ет, что гипотеза Я, выбирается при z(T) > у, а Нг — при z(7) < у. Если z(T) = у, ре­шение может быть любым. Выбор Я] равносилен тому, что передан был сигнал S[(/), а значит, результатом детектирования является двоичная единица. Подобным образом выбор Н2 равносилен передаче сигнала s2(t), а значит, результатом детек­тирования является двоичный нуль.

3.1.3. Векторное представление сигналов и шума

Рассмотрим геометрическое или векторное представление, приемлемое как для низ­кочастотных, так и полосовых сигналов. Определим N-мерное ортогональное про­странство как пространство, определяемое набором N линейно независимых функ­ций {ф/?)}> именуемых базисными. Любая функция этого пространства может выра­жаться через линейную комбинацию этих базисных функций, которые должны удовлетворять условию


т

о <t<T j, Аг= 1,...,N,

о


 


где оператор


 


(3.8,6)

называется дельта-функцией Кронекера и определяется формулой (3.8,6). При ненулевых константах Kj пространство именуется ортогональным. Если базисные функции нормиро­ваны так, что все А"= 1, пространство называется ортонормированным. Основное условие ортогональности можно сформулировать следующим образом: каждая функция y/f) набора базисных функций должна быть независимой от остальных функций набора. Каждая функция у/г) не должна интерферировать с другими функциями в процессе детектирова­ния. С геометрической точки зрения все функции vy,{f) взаимно перпендикулярны. Пример подобного пространства с N= 3 показан на рис. 3.3, где взаимно перпендикулярные оси обозначены ^(г), у2(г) и vy3(f). Если yr/t) соответствует действительному компоненту на­пряжения или силы тока сигнала, нормированному на сопротивление 1 Ом, то, используя формулы (1.5) и (3.8), получаем следующее выражение для нормированной энергии в джо­улях, переносимой сигналом yr/t) за Т секунд:

(3.9)

реализуем и имеет длительность Т, можно выразить как линейную комбинацию N ор­тогональных сигналов vy2(<), Ул(0> где N<M, так, что

5i(0 — fluViM + а12Уг(0 + ••• + ашУЖ)

S2(t) = O2lVl(0 + a22VJ2(t) +... + OwVaiO)

siu(i) — Ял/iYiW + алйУг(0 + ••• + <^mnx\in(i) Эти соотношения можно записать в более компактной форме:

N

(3.10)

j=1

N<M,

где

(3.11)

ау — это коэффициент при v|/,(r) разложения сигнала s,(t) по базисным функциям. Вид базиса не задается; эти сигналы выбираются с точки зрения удобства и зависят

от формы переданных сигналов. Набор таких сигналов {s,(0} можно рассматривать как набор векторов {S;} = {aib а,2, аш}. Если, например, N = 3, то мы можем изобра­зить вектор sm, соответствующий сигналу

sm(t) = a„iVi(0 + am2Vf2(t) + ат3у3(0,

в виде точки в трехмерном Евклидовом пространстве с координатами (aml, am2, am3), как показано на рис. 3.3. Взаимная ориентация векторов сигналов описывает связь между сигналами (относительно их фаз или частот), а амплитуда каждого вектора набора {^} является мерой энергии сигнала, перенесенной в течение времени передачи символа. Вообще, после выбора набора из N ортогональных функций, каждый из переданных сигналов s,(t) полностью определяется вектором его коэффициентов:

Si = (an,ai2,...,aiN) /=1,

В дальнейшем для отображения сигналов в векторной форме будем использовать запись {s} или {s(0}. На рис. 3.4 в векторной форме (которая в данном случае являет­ся очень удобной) показан процесс детектирования. Векторы Sj и s* представляют сиг- налы-прототипы, или опорные сигналы, принадлежащие набору из М сигналов, {s;(f)}. Приемник априори знает местонахождение в пространстве сигналов всех векторов- прототипов, принадлежащих Af-мерному множеству. В процессе передачи каждый сигнал подвергается воздействию шумов, так что в действительности принимается ис­каженная версия исходного сигнала (например, sy + п или s* + п), где п — вектор по­мех. Будем считать, что помехи являются аддитивными и имеют гауссово распределе­ние; следовательно, результирующее распределение возможных принимаемых сигна­лов — это кластер или облако точек вокруг s, и s*. Кластер сгущается к центру и
разрежается с увеличением расстояния от прототипа. Стрелочка с пометкой “г” пред­ставляет вектор сигнала, который поступает в приемник в течение определенного ин­тервала передачи символа. Задача приемника — определить, на какой из прототипов М-мерного множества сигнал “похож” больше. Мерой “сходства” может быть рас­стояние. Приемник или детектор должен решить, какой из прототипов сигнального пространства ближе к принятому вектору г. Анализ всех схем демодуляции или детек­тирования включает использование понятия расстояние между принятым сигналом и набором возможных переданных сигналов. Детектор должен следовать одному про­стому правилу, определять принадлежность г к тому же классу, к которому принадле­жит его ближайший сосед (ближайший вектор-прототип).


               
   
V2(t)
 
   
vi(t)
 
   
V3(f)
 
 
Рис. 3.4. Сигналы и шум в трехмерном век­торном пространстве

 

3.1.3.1. Энергия сигнала

С помощью формул (1.5), (3.10) и (3.8) нормированную энергию Е,, связанную с сигналом s,(0 в течение периода передачи символа Т, можно выразить через ортого­нальные компоненты s,{t):

(3.13)

(3.14)

о j

Т


 


X £а<Л* fvj(0¥*(0<* =

j * о j *

 


N

= Y,atiKJ»' =!.■■■. Л/. (3-17)

j=i

Уравнение (3.17) — это частный случай теоремы Парсеваля, связывающей интеграл от квадрата сигнала st(t) с суммой квадратов коэффициентов ортогонального разложения Si(t). При использовании ортонормированных функций (т.е. при К} = 1) нормированная энергия за промежуток времени Т дается следующим выражением:

N

= (ЗЛ8) j=1

Если все сигналы s,(t) имеют одинаковую энергию, формулу (3.18) можно записать следующим образом:

N

Е = для всех £. (3.19)

j = i

3.1.3.2. Обобщенное преобразование Фурье

Преобразование, описанное формулами (3.8), (3.10) и (3.11), называется обобщенным преобразованием Фурье. При обычном преобразовании Фурье множество {у/г)} включает синусоиды и косинусоиды, а в случае обобщенного преобразования оно не ограничено какой-либо конкретной формой; это множество должно лишь удовлетворять условию ортогональности, записанному в форме уравнения (3.8). Обобщенное преобразование Фурье позволяет представить любой произвольный интегрируемый набор сигналов (или шумов) в виде линейной комбинации ортогональных сигналов [3]. Следовательно, в по­добном ортогональном пространстве в качестве критерия принятия решения для детек­тирования любого набора сигналов при шуме AWGN вполне оправдано использование расстояния (Евклидового расстояния). Вообще, важнейшее применение этого ортого­нального преобразования связано с действительной передачей и приемом сигналов. Пе­редача неортогонального набора сигналов в общем случае осуществляется посредством подходящего взвешивания ортогональных компонентов несущих.

Пример 3.1. Ортогональное представление сигналов

На рис. 3.5 иллюстрируется утверждение, что любой произвольный интегрируемый набор

сигналов может представляться как линейная комбинация ортогональных сигналов. На

рис. 3.5, а показан набор из трех сигналов, Ji(f), s2(t) и Sj(t).

а) Покажите, что данные сигналы не взаимно ортогональны.

б) На рис. 3.5, б показаны два сигнала i)fi(f) и у2(0- Докажите, что эти сигналы ортого­нальны.

в) Покажите, как неортогональные сигналы из п. а можно выразить как линейную комби­нацию ортогональных сигналов из п. б.

г) На рис. 3.5, в показаны другие два сигнала и у2'(0- Покажите, как неортогональ­ные сигналы, показанные на рис. 3.5, а, выражаются через линейную комбинацию сиг­налов, изображенных на рис. 3.5, в.


Sl(f)

 


                                             
   
 
S2(t)
 
   
1/2
 
     
1/2
 
 
   
I s,{t)sj{t)dt*0 °для ///
 
   
V'2(f)
   
V2(t)
 
 
 
   
.m.
 
   
1/2
     
1/2
 
 
   
J V>WO rff={oZ других j, к 1dt={ ^их. fc
 
   
в)
   
6)
 

 

Рис. 3.5. Пример выражения произвольного набора сигналов через ортогональный на­бор: а) произвольный набор сигналов; б) набор ортогональных базисных функций;

в) другой набор ортогональных базисных функций

Решение

а) Сигналы s2(t) и s\(t), очевидно, не являются взаимно ортогональными, поскольку не удовлетворяют требованиям, указанным в формуле (3.8), т.е. интегрирование по вре­мени (по длительности передачи символа) произведения любых двух из трех сигналов не равно нулю. Покажем это для сигналов Si(t) и $г(0-

г г/2 г

^(052 (0*= ]*1(0*2(0<*+ j"*! (t)s2(t)dt =

О О Т/2

ТП Т

= J(-l)(2)<* = |(-3)(0)Л=-Г.

О Г/2

Подобным образом интегрирование по интервалу времени Т каждого из скалярных про­изведений и $г(0*э(0 дает ненулевой результат. Следовательно, множество сиг­налов {s,(t)} (/=1, 2, 3) на рис. 3.5, а не является ортогональным.

б) Используя формулу (3.8), докажем, что v)fi(f) и у2(0 ортогональны:

Г 772 Г

JVi m2(odt= J(i)(i)*+ |(-1К1)л=о.

о о тп

в) С использованием формулы (3.11) при К, = Т, неортогональное множество сигналов {s,(0} 0'= 1, 2, 3) можно выразить через линейную комбинацию ортогональных базис­ных сигналов {<]///)} (/ = 1> 2):

si(0 = Vi(0 - 2\|/2(f) si(t) = Yi(r) + у2(0 j3(f) = 2i|/,(/) - y2(f)

г) Подобно тому, как было сделано в п в, неортогональное множество {s,(0} 0 = 1, 2, 3) можно выразить через ортогональный набор базисных функций {v(f/(f)} (j — 1. 2), изо­браженный на рис. 3.5, в:

si(0 = Yi'W - 3v(s2(t) =

■5з(0 = Vi'O) - Зу/(0

Эти соотношения показывают, как произвольный набор сигналов {s,(t)} выражается через линейную комбинацию сигналов ортогонального набора {у,(г)}, как описывается формула­ми (3 10) и (3.11) Какое практическое значение имеет возможность представления сигналов s,(t), s2(0 и s3(f) через сигналы V)fi(r), y2(f) и соответствующие коэффициенты? Если мы хотим, чтобы система передавала сигналы s,{l), s2(f) и s3(t), достаточно, чтобы передатчик и приемник реализовывались только с использованием двух базисных функций и у2(/) вместо трех исходных сигналов Получить ортогональный набор базисных функций {yi(t)l для любого данного набора сигналов {s,{t)} позволяет процесс ортогонализации Грамма-Шмидта. (Подробно этот процесс описан в приложении 4А работы [4].)

3.1.3.3. Представление белого шума через ортогональные сигналы

Аддитивный белый гауссов шум (additive white Gaussian noise — AWGN), как и лю­бой другой сигнал, можно выразить как линейную комбинацию ортогональных сиг­налов. Для последующего рассмотрения процесса детектирования сигналов шум удоб­но разложить на два компонента:

n(f) = n{t) + n(f),

где

(3.21)

является шумом в пространстве сигналов или проекцией компонентов шума на коор­динаты сигнала ц/,(/),..., уМ, а

n(t) = n(t) - h(t)

есть шумом вне пространства сигналов. Другими словами, л (г) можно рассматри­вать как шум, эффективно отсеиваемый детектором, а л(г) — как шум, который будет “вмешиваться” в процесс детектирования. Итак, шум n(t) можно выразить следующим образом:

л(0 = ^п,\|/у(0 + й(0, (3.23)

j = i

где

г

rij =— |л(/)у7(/) Л для всех7 (3.24)

Л, J

Г

J«(f)v|/J(/)rf/=0 длявсеху. (3.25)

о

Компонент п(г) шума, выраженный формулой (3.21), следовательно, можно считать просто равным n(t). Выразить шум n(t) можно через вектор его коэффициентов, по­добно тому, как это делалось для сигналов в формуле (3.12). Имеем

П = (Л!, п2,..., Плг), (3.26)

где п — случайный вектор с нулевым средним и гауссовым распределением, а компо­ненты шума п, (i'= 1,..., N) являются независимыми.

3.1.3.4. Дисперсия белого шума

Белый шум — это идеализированный процесс с двусторонней спектральной плотно­стью мощности, равной постоянной величине NJ2 для всех частот от до +<*>. Сле­довательно, дисперсия шума (средняя мощность шума, поскольку шум имеет нулевое среднее) равна следующему:

О2 = varfn(f)] = ]df =00. (3.27)

—со

Хотя дисперсия AWGN равна бесконечности, дисперсия фильтрованного шума AWGN конечна. Например, если AWGN коррелирует с одной из набора ортонор- мированных функций уДг), дисперсия на выходе коррелятора описывается сле­дующим выражением:


3.1.4. Важнейший параметр систем цифровой связи — отношение сигнал/шум

Любой, кто изучал аналоговую связь, знаком с критерием качества, именуемым отношени­ем средней мощности сигнала к средней мощности шума (S/N или SNR). В цифровой связи в качестве критерия качества чаще используется нормированная версия SNR, E,JN0. Еь — это энергия бита, и ее можно описать как мощность сигнала S, умноженную на время переда­чи бита Tb. N0 — это спектральная плотность мощности шума, и ее можно выразить как мощность шума N, деленную на ширину полосы W. Поскольку время передачи бита и ско­рость передачи битов Rb взаимно обратны, Ть можно заменить на l/Rb:

ЕЬ _ S Ть _ S/Rb

N0 N/W N/W

Еще одним параметром, часто используемым в цифровой связи, является скорость передачи данных в битах в секунду. В целях упрощения выражений, встречающихся в книге, для представления скорости передачи битов вместо записи Rb будем писать просто R. С учетом сказанного перепишем, выражение (3.29) так, чтобы было явно видно, что отношение EJN0 представляет собой отношение S/N, нормированное на ширину полосы и скорость передачи битов:


 

(3.30)

Одной из важнейших метрик качества в системах цифровой связи является график за­висимости вероятности появления ошибочного бита Рв от E,JN0. На рис. 3.6 показан “водопадоподобный” вид большинства подобных кривых. При HLJN0 > х0, Рв < Р0. Без­размерное отношение EiJN0 — это стандартная качественная мера производительности систем цифровой связи. Следовательно, необходимое отношение EJN^ можно рас­сматривать как метрику, позволяющую сравнивать качество различных систем; чем меньше требуемое отношение Ei/N0, тем эффективнее процесс детектирования при данной вероятности ошибки.


3.1.5. Почему отношение Eb/N0 — это естественный критерий качества

У неспециалистов в области цифровой связи может возникнуть вопрос о полезности параметра E,JN0. Отношение S/N — это удобный критерий качества для аналоговых систем связи: числитель представляет меру мощности сигнала, которую желательно сохранить, а знаменатель — ухудшение вследствие электрических помех. Более того, отношение S/N интуитивно воспринимается как мера качества. Итак, почему в циф­ровых системах связи мы не можем продолжать использовать отношение S/N как кри­терий качества? Зачем для цифровых систем нужна другая метрика — отношение энергии бита к спектральной плотности мощности шума? Объяснению этого вопроса и посвящен данный раздел.

В разделе 1.2.4 мощностной сигнал определялся как сигнал с конечной средней мощностью и бесконечной энергией. Энергетический сигнал определялся как сигнал с нулевой средней мощностью и конечной энергией. Такая классификация полезна при сравнении аналоговых и цифровых сигналов. Аналоговый сигнал мы относим к мощностным сигналам. Почему это имеет смысл? Об аналоговом сигнале можно ду­мать как о сигнале, имеющем бесконечную длительность, который не требуется раз­граничивать во времени. Неограниченно длительный аналоговый сигнал содержит бесконечную энергию; следовательно, использование энергии — это не самый удоб­ный способ описания характеристик такого сигнала. Значительно более удобным па­раметром для аналоговых волн является мощность (или скорость доставки энергии).

В то же время в системах цифровой связи мы передаем (и принимаем) символы путем передачи некоторого сигнала в течение конечного промежутка времени, време­ни передачи символа Т„. Сконцентрировав внимание на одном символе, видим, что мощность (усредненная по времени) стремится к нулю. Значит, для описания харак­теристик цифрового сигнала мощность не подходит. Для подобного сигнала нам нуж­на метрика, “достаточно хорошая” в пределах конечного промежутка времени. Дру­гими словами, энергия символа (мощность, проинтегрированная по Ts) — это гораздо более удобный параметр описания цифровых сигналов.

То, что цифровой сигнал лучше всего характеризует полученная им энергия, еще не да­ет ответа на вопрос, почему E,JN0 — это естественная метрика для цифровых систем, так что продолжим. Цифровой сигнал — это транспортное средство, представляющее цифро­вое сообщение. Сообщение может содержать один бит (двоичное сообщение), два (четверичное),..., 10 бит (1024-ричное). В аналоговых системах нет ничего подобного та­кой дискретной структуре сообщения. Аналоговый информационный источник — это бес­конечно квантованная непрерывная волна. Для цифровых систем критерий качества дол­жен позволять сравнивать одну систему с другой на битовом уровне. Следовательно, опи­сывать цифровые сигналы в терминах S/N практически бесполезно, поскольку сигнал может иметь однобитовое, 2-битовое или 10-битовое значение. Предположим, что для данной вероятности возникновения ошибки в цифровом двоичном сигнале требуемое от­ношение S/N равно 20. Будем считать, что понятия сигнала и его значения взаимозаме­няемы. Поскольку двоичный сигнал имеет однобитовое значение, требуемое отношение SIN на бит равно 20 единицам. Предположим, что наш сигнал является 1024-ричным, с теми же 20 единицами требуемого отношения S/N. Теперь, поскольку сигнал имеет 10-битовое значение, требуемое отношение S/N на один бит равно всего 2. Возникает во­прос: почему мы должны выполнять такую цепочку вычислений, чтобы найти метрику, представляющую критерий качества? Почему бы сразу не выразить метрику через то, что нам действительно надо, — параметр, связанный с энергией на битовом уровне, E,JN<?.

В заключение отметим, что поскольку отношение S/N является безразмерным, таким же является и отношение E,JN0. Для проверки можно вычислить единицы измерения:

Еь _ Джоуль _ Ватт-секунда N0 Ватт на герц Ватт-секунда

3.2. Детектирование двоичных сигналов в гауссовом шуме

3.2.1. Критерий максимального правдоподобия приема сигналов

Критерий принятия решения, используемый в этапе 2 (рис. 3.1), описывался форму­лой (3.7) следующим образом:

Я.

z(T)% У- Н2

Популярный критерий выбора порога у для принятия двоичного решения в выраже­нии (3.7) основан на минимизации вероятности ошибки. Вычисление этого минимального значения ошибки У=Уо начинается с записи связи отношения плотностей условных вероят­ностей и отношения априорных вероятностей появления сигнала. Поскольку плотность условной вероятности р(ф,) также называется функцией правдоподобия s„ формулировка

(331)

p(zl*2) и

есть критерием отношения функций правдоподобия (см. приложение Б). В этом неравен­стве P(s,) и P(s2) являются априорными вероятностями передачи сигналов s,(f) и s2(t), а Hi и Н2 — две возможные гипотезы. Правило минимизации вероятности ошибки (формула (3.31)) гласит, что если отношение функций правдоподобия больше отноше­ния априорных вероятностей, то следует выбирать гипотезу Я,.

В разделе Б.З. 1 показано, что при P(sx) - P(s2) и симметричных функциях правдо­подобия p(z | s,) (t =1, 2) подстановка формул (3.5) и (3.6) в формулу (3.31) дает

Н,

z(r)^£i±5. =7о> (3.32)

н2

где я, — сигнальный компонент z(T) при передаче sj(r), а аг — сигнальный компонент z(T) при передаче s2(t). Порог Yo, представленный выражением (а, + а2)/2, — это опти­мальный порог для минимизации вероятности принятия неверного решения в этом важном частном случае. Описанный подход называется критерием минимальной ошиб­ки.

Для равновероятных сигналов оптимальный порог у0, как показано на рис. 3.2, проходит через пересечение функций правдоподобия. Следовательно, из форму­лы (3.32), видим, что этап принятия решения заключается в эффективном выборе ги­
потезы, соответствующей сигналу с максимальным правдоподобием. Пусть, например, значение выборки принятого сигнала равно г„(7), а значения функций правдоподобия того, что za(T) принадлежит к одному из двух классов st(t) или s2(t), отличны от нуля. В этом случае критерий принятия решения можно рассматривать как сравнение функций правдоподобия pfc,|si) и p(z„|si). Более вероятное значение переданного сиг­нала соответствует наибольшей плотности вероятности. Другими словами, детектор выбирает ^(г), если

p(z„|si) > p(za\s2).

В противном случае детектор выбирает s2(t). Детектор, минимизирующий вероятность ошибки (для классов равновероятных сигналов), называется детектором максималь­ного правдоподобия.

Из рис. 3.2 можно видеть, что выражение (3.33) — это “метод здравого смысла” принятия решения при наличии статистических знаний о классах. Имея на выходе детектора значение z„(7), видим (рис. 3.2), что z„(T) пересекается с графиком функции правдоподобия si(t) в точке ^ и с графиком функции правдоподобия s2(t) в точке /2. Какое наиболее разумное решение должен принять детектор? В описанном случае наиболее здравым является выбор класса s,(f), имеющего большее правдоподобие. Ес­ли бы пример был М-мерным, а не бинарным, всего существовало бы М функций правдоподобия, представляющих М классов сигналов, к которым может принадлежать принятый сигнал. Решение по принципу максимального правдоподобия в этом случае представляло бы выбор класса, имеющего самое большое правдоподобие из М воз­можных. (Основы теории принятия решений даются в приложении Б.)


Дата добавления: 2015-10-28; просмотров: 83 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 10 страница| Основы теории принятая статистических решений 1051 12 страница

mybiblioteka.su - 2015-2024 год. (0.043 сек.)