Читайте также: |
|
(3.6)
Эти плотности условных вероятностей показаны на рис. 3.2. Плотность p(z|si), изображенная справа, называется правдоподобием sj и показывает плотность вероятности случайной переменной z(T) при условии передачи символа Подобным образом функция p(z\s2) (слева) является правдоподобием s2 и показывает плотность вероятности z(T) при условии передачи символа s2. Ось абсцисс, z(7), представляет полный диапазон возможных значений выборки, взятой в течение этапа 1, изображенного на рис. 3.1.
Рис. 3.2. Плотности условных вероятностей: p(z|si) и р(г|^) |
После того как принятый сигнал преобразован в выборку, действительная форма сигнала уже не имеет значения; сигналы всех типов, преобразованные в одинаковое значение z(7), идентичны для схемы детектирования. Далее будет показано, что оптимальный принимающий фильтр (согласованный фильтр) на этапе 1 (рис. 3.1) отображает все сигналы с равными энергиями в одну и ту же точку z(T). Следовательно, важным параметром процесса детектирования является энергия (а не форма) принятого сигнала, именно поэтому анализ детектирования для видеосигналов не отличается от анализа для полосовых сигналов. Поскольку z(7) является сигналом напряжения, пропорциональным энергии принятого символа, то чем больше амплитуда г(7), тем более достоверным будет процесс принятия решения относительно цифрового значения сигнала. На этапе 2 детектирование выполняется посредством выбора гипотезы, являющейся следствием порогового измерения
Я,
z(X)^y, (3.7)
Н2
где Hi и Н2 — две возможные (бинарные) гипотезы. Приведенная запись указывает, что гипотеза Я, выбирается при z(T) > у, а Нг — при z(7) < у. Если z(T) = у, решение может быть любым. Выбор Я] равносилен тому, что передан был сигнал S[(/), а значит, результатом детектирования является двоичная единица. Подобным образом выбор Н2 равносилен передаче сигнала s2(t), а значит, результатом детектирования является двоичный нуль.
3.1.3. Векторное представление сигналов и шума
Рассмотрим геометрическое или векторное представление, приемлемое как для низкочастотных, так и полосовых сигналов. Определим N-мерное ортогональное пространство как пространство, определяемое набором N линейно независимых функций {ф/?)}> именуемых базисными. Любая функция этого пространства может выражаться через линейную комбинацию этих базисных функций, которые должны удовлетворять условию
т
о <t<T j, Аг= 1,...,N,
о
где оператор
(3.8,6)
называется дельта-функцией Кронекера и определяется формулой (3.8,6). При ненулевых константах Kj пространство именуется ортогональным. Если базисные функции нормированы так, что все А"= 1, пространство называется ортонормированным. Основное условие ортогональности можно сформулировать следующим образом: каждая функция y/f) набора базисных функций должна быть независимой от остальных функций набора. Каждая функция у/г) не должна интерферировать с другими функциями в процессе детектирования. С геометрической точки зрения все функции vy,{f) взаимно перпендикулярны. Пример подобного пространства с N= 3 показан на рис. 3.3, где взаимно перпендикулярные оси обозначены ^(г), у2(г) и vy3(f). Если yr/t) соответствует действительному компоненту напряжения или силы тока сигнала, нормированному на сопротивление 1 Ом, то, используя формулы (1.5) и (3.8), получаем следующее выражение для нормированной энергии в джоулях, переносимой сигналом yr/t) за Т секунд:
(3.9)
реализуем и имеет длительность Т, можно выразить как линейную комбинацию N ортогональных сигналов vy2(<), Ул(0> где N<M, так, что
5i(0 — fluViM + а12Уг(0 + ••• + ашУЖ)
S2(t) = O2lVl(0 + a22VJ2(t) +... + OwVaiO)
siu(i) — Ял/iYiW + алйУг(0 + ••• + <^mnx\in(i) Эти соотношения можно записать в более компактной форме:
N
(3.10)
j=1
N<M,
где
(3.11)
ау — это коэффициент при v|/,(r) разложения сигнала s,(t) по базисным функциям. Вид базиса не задается; эти сигналы выбираются с точки зрения удобства и зависят
от формы переданных сигналов. Набор таких сигналов {s,(0} можно рассматривать как набор векторов {S;} = {aib а,2, аш}. Если, например, N = 3, то мы можем изобразить вектор sm, соответствующий сигналу
sm(t) = a„iVi(0 + am2Vf2(t) + ат3у3(0,
в виде точки в трехмерном Евклидовом пространстве с координатами (aml, am2, am3), как показано на рис. 3.3. Взаимная ориентация векторов сигналов описывает связь между сигналами (относительно их фаз или частот), а амплитуда каждого вектора набора {^} является мерой энергии сигнала, перенесенной в течение времени передачи символа. Вообще, после выбора набора из N ортогональных функций, каждый из переданных сигналов s,(t) полностью определяется вектором его коэффициентов:
Si = (an,ai2,...,aiN) /=1,
В дальнейшем для отображения сигналов в векторной форме будем использовать запись {s} или {s(0}. На рис. 3.4 в векторной форме (которая в данном случае является очень удобной) показан процесс детектирования. Векторы Sj и s* представляют сиг- налы-прототипы, или опорные сигналы, принадлежащие набору из М сигналов, {s;(f)}. Приемник априори знает местонахождение в пространстве сигналов всех векторов- прототипов, принадлежащих Af-мерному множеству. В процессе передачи каждый сигнал подвергается воздействию шумов, так что в действительности принимается искаженная версия исходного сигнала (например, sy + п или s* + п), где п — вектор помех. Будем считать, что помехи являются аддитивными и имеют гауссово распределение; следовательно, результирующее распределение возможных принимаемых сигналов — это кластер или облако точек вокруг s, и s*. Кластер сгущается к центру и
разрежается с увеличением расстояния от прототипа. Стрелочка с пометкой “г” представляет вектор сигнала, который поступает в приемник в течение определенного интервала передачи символа. Задача приемника — определить, на какой из прототипов М-мерного множества сигнал “похож” больше. Мерой “сходства” может быть расстояние. Приемник или детектор должен решить, какой из прототипов сигнального пространства ближе к принятому вектору г. Анализ всех схем демодуляции или детектирования включает использование понятия расстояние между принятым сигналом и набором возможных переданных сигналов. Детектор должен следовать одному простому правилу, определять принадлежность г к тому же классу, к которому принадлежит его ближайший сосед (ближайший вектор-прототип).
| |||||||
| |||||||
| |||||||
|
3.1.3.1. Энергия сигнала
С помощью формул (1.5), (3.10) и (3.8) нормированную энергию Е,, связанную с сигналом s,(0 в течение периода передачи символа Т, можно выразить через ортогональные компоненты s,{t):
(3.13)
(3.14)
о j
Т
X £а<Л* fvj(0¥*(0<* =
j * о j * |
N
= Y,atiKJ»' =!.■■■. Л/. (3-17)
j=i
Уравнение (3.17) — это частный случай теоремы Парсеваля, связывающей интеграл от квадрата сигнала st(t) с суммой квадратов коэффициентов ортогонального разложения Si(t). При использовании ортонормированных функций (т.е. при К} = 1) нормированная энергия за промежуток времени Т дается следующим выражением:
N
= (ЗЛ8) j=1
Если все сигналы s,(t) имеют одинаковую энергию, формулу (3.18) можно записать следующим образом:
N
Е = для всех £. (3.19)
j = i
3.1.3.2. Обобщенное преобразование Фурье
Преобразование, описанное формулами (3.8), (3.10) и (3.11), называется обобщенным преобразованием Фурье. При обычном преобразовании Фурье множество {у/г)} включает синусоиды и косинусоиды, а в случае обобщенного преобразования оно не ограничено какой-либо конкретной формой; это множество должно лишь удовлетворять условию ортогональности, записанному в форме уравнения (3.8). Обобщенное преобразование Фурье позволяет представить любой произвольный интегрируемый набор сигналов (или шумов) в виде линейной комбинации ортогональных сигналов [3]. Следовательно, в подобном ортогональном пространстве в качестве критерия принятия решения для детектирования любого набора сигналов при шуме AWGN вполне оправдано использование расстояния (Евклидового расстояния). Вообще, важнейшее применение этого ортогонального преобразования связано с действительной передачей и приемом сигналов. Передача неортогонального набора сигналов в общем случае осуществляется посредством подходящего взвешивания ортогональных компонентов несущих.
Пример 3.1. Ортогональное представление сигналов
На рис. 3.5 иллюстрируется утверждение, что любой произвольный интегрируемый набор
сигналов может представляться как линейная комбинация ортогональных сигналов. На
рис. 3.5, а показан набор из трех сигналов, Ji(f), s2(t) и Sj(t).
а) Покажите, что данные сигналы не взаимно ортогональны.
б) На рис. 3.5, б показаны два сигнала i)fi(f) и у2(0- Докажите, что эти сигналы ортогональны.
в) Покажите, как неортогональные сигналы из п. а можно выразить как линейную комбинацию ортогональных сигналов из п. б.
г) На рис. 3.5, в показаны другие два сигнала и у2'(0- Покажите, как неортогональные сигналы, показанные на рис. 3.5, а, выражаются через линейную комбинацию сигналов, изображенных на рис. 3.5, в.
Sl(f) |
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
| ||||||||||||||||||||||
Рис. 3.5. Пример выражения произвольного набора сигналов через ортогональный набор: а) произвольный набор сигналов; б) набор ортогональных базисных функций;
в) другой набор ортогональных базисных функций
Решение
а) Сигналы s2(t) и s\(t), очевидно, не являются взаимно ортогональными, поскольку не удовлетворяют требованиям, указанным в формуле (3.8), т.е. интегрирование по времени (по длительности передачи символа) произведения любых двух из трех сигналов не равно нулю. Покажем это для сигналов Si(t) и $г(0-
г г/2 г
^(052 (0*= ]*1(0*2(0<*+ j"*! (t)s2(t)dt =
О О Т/2
ТП Т
= J(-l)(2)<* = |(-3)(0)Л=-Г.
О Г/2
Подобным образом интегрирование по интервалу времени Т каждого из скалярных произведений и $г(0*э(0 дает ненулевой результат. Следовательно, множество сигналов {s,(t)} (/=1, 2, 3) на рис. 3.5, а не является ортогональным.
б) Используя формулу (3.8), докажем, что v)fi(f) и у2(0 ортогональны:
Г 772 Г
JVi m2(odt= J(i)(i)*+ |(-1К1)л=о.
о о тп
в) С использованием формулы (3.11) при К, = Т, неортогональное множество сигналов {s,(0} 0'= 1, 2, 3) можно выразить через линейную комбинацию ортогональных базисных сигналов {<]///)} (/ = 1> 2):
si(0 = Vi(0 - 2\|/2(f) si(t) = Yi(r) + у2(0 j3(f) = 2i|/,(/) - y2(f)
г) Подобно тому, как было сделано в п в, неортогональное множество {s,(0} 0 = 1, 2, 3) можно выразить через ортогональный набор базисных функций {v(f/(f)} (j — 1. 2), изображенный на рис. 3.5, в:
si(0 = Yi'W - 3v(s2(t) =
■5з(0 = Vi'O) - Зу/(0
Эти соотношения показывают, как произвольный набор сигналов {s,(t)} выражается через линейную комбинацию сигналов ортогонального набора {у,(г)}, как описывается формулами (3 10) и (3.11) Какое практическое значение имеет возможность представления сигналов s,(t), s2(0 и s3(f) через сигналы V)fi(r), y2(f) и соответствующие коэффициенты? Если мы хотим, чтобы система передавала сигналы s,{l), s2(f) и s3(t), достаточно, чтобы передатчик и приемник реализовывались только с использованием двух базисных функций и у2(/) вместо трех исходных сигналов Получить ортогональный набор базисных функций {yi(t)l для любого данного набора сигналов {s,{t)} позволяет процесс ортогонализации Грамма-Шмидта. (Подробно этот процесс описан в приложении 4А работы [4].)
3.1.3.3. Представление белого шума через ортогональные сигналы
Аддитивный белый гауссов шум (additive white Gaussian noise — AWGN), как и любой другой сигнал, можно выразить как линейную комбинацию ортогональных сигналов. Для последующего рассмотрения процесса детектирования сигналов шум удобно разложить на два компонента:
n(f) = n{t) + n(f),
где
(3.21)
является шумом в пространстве сигналов или проекцией компонентов шума на координаты сигнала ц/,(/),..., уМ, а
n(t) = n(t) - h(t)
есть шумом вне пространства сигналов. Другими словами, л (г) можно рассматривать как шум, эффективно отсеиваемый детектором, а л(г) — как шум, который будет “вмешиваться” в процесс детектирования. Итак, шум n(t) можно выразить следующим образом:
л(0 = ^п,\|/у(0 + й(0, (3.23)
j = i
где
г
rij =— |л(/)у7(/) Л для всех7 (3.24)
Л, J
Г
J«(f)v|/J(/)rf/=0 длявсеху. (3.25)
о
Компонент п(г) шума, выраженный формулой (3.21), следовательно, можно считать просто равным n(t). Выразить шум n(t) можно через вектор его коэффициентов, подобно тому, как это делалось для сигналов в формуле (3.12). Имеем
П = (Л!, п2,..., Плг), (3.26)
где п — случайный вектор с нулевым средним и гауссовым распределением, а компоненты шума п, (i'= 1,..., N) являются независимыми.
3.1.3.4. Дисперсия белого шума
Белый шум — это идеализированный процесс с двусторонней спектральной плотностью мощности, равной постоянной величине NJ2 для всех частот от до +<*>. Следовательно, дисперсия шума (средняя мощность шума, поскольку шум имеет нулевое среднее) равна следующему:
О2 = varfn(f)] = ]df =00. (3.27)
—со
Хотя дисперсия AWGN равна бесконечности, дисперсия фильтрованного шума AWGN конечна. Например, если AWGN коррелирует с одной из набора ортонор- мированных функций уДг), дисперсия на выходе коррелятора описывается следующим выражением:
3.1.4. Важнейший параметр систем цифровой связи — отношение сигнал/шум
Любой, кто изучал аналоговую связь, знаком с критерием качества, именуемым отношением средней мощности сигнала к средней мощности шума (S/N или SNR). В цифровой связи в качестве критерия качества чаще используется нормированная версия SNR, E,JN0. Еь — это энергия бита, и ее можно описать как мощность сигнала S, умноженную на время передачи бита Tb. N0 — это спектральная плотность мощности шума, и ее можно выразить как мощность шума N, деленную на ширину полосы W. Поскольку время передачи бита и скорость передачи битов Rb взаимно обратны, Ть можно заменить на l/Rb:
ЕЬ _ S Ть _ S/Rb
N0 N/W N/W
Еще одним параметром, часто используемым в цифровой связи, является скорость передачи данных в битах в секунду. В целях упрощения выражений, встречающихся в книге, для представления скорости передачи битов вместо записи Rb будем писать просто R. С учетом сказанного перепишем, выражение (3.29) так, чтобы было явно видно, что отношение EJN0 представляет собой отношение S/N, нормированное на ширину полосы и скорость передачи битов:
(3.30)
Одной из важнейших метрик качества в системах цифровой связи является график зависимости вероятности появления ошибочного бита Рв от E,JN0. На рис. 3.6 показан “водопадоподобный” вид большинства подобных кривых. При HLJN0 > х0, Рв < Р0. Безразмерное отношение EiJN0 — это стандартная качественная мера производительности систем цифровой связи. Следовательно, необходимое отношение EJN^ можно рассматривать как метрику, позволяющую сравнивать качество различных систем; чем меньше требуемое отношение Ei/N0, тем эффективнее процесс детектирования при данной вероятности ошибки.
3.1.5. Почему отношение Eb/N0 — это естественный критерий качества
У неспециалистов в области цифровой связи может возникнуть вопрос о полезности параметра E,JN0. Отношение S/N — это удобный критерий качества для аналоговых систем связи: числитель представляет меру мощности сигнала, которую желательно сохранить, а знаменатель — ухудшение вследствие электрических помех. Более того, отношение S/N интуитивно воспринимается как мера качества. Итак, почему в цифровых системах связи мы не можем продолжать использовать отношение S/N как критерий качества? Зачем для цифровых систем нужна другая метрика — отношение энергии бита к спектральной плотности мощности шума? Объяснению этого вопроса и посвящен данный раздел.
В разделе 1.2.4 мощностной сигнал определялся как сигнал с конечной средней мощностью и бесконечной энергией. Энергетический сигнал определялся как сигнал с нулевой средней мощностью и конечной энергией. Такая классификация полезна при сравнении аналоговых и цифровых сигналов. Аналоговый сигнал мы относим к мощностным сигналам. Почему это имеет смысл? Об аналоговом сигнале можно думать как о сигнале, имеющем бесконечную длительность, который не требуется разграничивать во времени. Неограниченно длительный аналоговый сигнал содержит бесконечную энергию; следовательно, использование энергии — это не самый удобный способ описания характеристик такого сигнала. Значительно более удобным параметром для аналоговых волн является мощность (или скорость доставки энергии).
В то же время в системах цифровой связи мы передаем (и принимаем) символы путем передачи некоторого сигнала в течение конечного промежутка времени, времени передачи символа Т„. Сконцентрировав внимание на одном символе, видим, что мощность (усредненная по времени) стремится к нулю. Значит, для описания характеристик цифрового сигнала мощность не подходит. Для подобного сигнала нам нужна метрика, “достаточно хорошая” в пределах конечного промежутка времени. Другими словами, энергия символа (мощность, проинтегрированная по Ts) — это гораздо более удобный параметр описания цифровых сигналов.
То, что цифровой сигнал лучше всего характеризует полученная им энергия, еще не дает ответа на вопрос, почему E,JN0 — это естественная метрика для цифровых систем, так что продолжим. Цифровой сигнал — это транспортное средство, представляющее цифровое сообщение. Сообщение может содержать один бит (двоичное сообщение), два (четверичное),..., 10 бит (1024-ричное). В аналоговых системах нет ничего подобного такой дискретной структуре сообщения. Аналоговый информационный источник — это бесконечно квантованная непрерывная волна. Для цифровых систем критерий качества должен позволять сравнивать одну систему с другой на битовом уровне. Следовательно, описывать цифровые сигналы в терминах S/N практически бесполезно, поскольку сигнал может иметь однобитовое, 2-битовое или 10-битовое значение. Предположим, что для данной вероятности возникновения ошибки в цифровом двоичном сигнале требуемое отношение S/N равно 20. Будем считать, что понятия сигнала и его значения взаимозаменяемы. Поскольку двоичный сигнал имеет однобитовое значение, требуемое отношение SIN на бит равно 20 единицам. Предположим, что наш сигнал является 1024-ричным, с теми же 20 единицами требуемого отношения S/N. Теперь, поскольку сигнал имеет 10-битовое значение, требуемое отношение S/N на один бит равно всего 2. Возникает вопрос: почему мы должны выполнять такую цепочку вычислений, чтобы найти метрику, представляющую критерий качества? Почему бы сразу не выразить метрику через то, что нам действительно надо, — параметр, связанный с энергией на битовом уровне, E,JN<?.
В заключение отметим, что поскольку отношение S/N является безразмерным, таким же является и отношение E,JN0. Для проверки можно вычислить единицы измерения:
Еь _ Джоуль _ Ватт-секунда N0 Ватт на герц Ватт-секунда
3.2. Детектирование двоичных сигналов в гауссовом шуме
3.2.1. Критерий максимального правдоподобия приема сигналов
Критерий принятия решения, используемый в этапе 2 (рис. 3.1), описывался формулой (3.7) следующим образом:
Я.
z(T)% У- Н2
Популярный критерий выбора порога у для принятия двоичного решения в выражении (3.7) основан на минимизации вероятности ошибки. Вычисление этого минимального значения ошибки У=Уо начинается с записи связи отношения плотностей условных вероятностей и отношения априорных вероятностей появления сигнала. Поскольку плотность условной вероятности р(ф,) также называется функцией правдоподобия s„ формулировка
(331)
p(zl*2) и
есть критерием отношения функций правдоподобия (см. приложение Б). В этом неравенстве P(s,) и P(s2) являются априорными вероятностями передачи сигналов s,(f) и s2(t), а Hi и Н2 — две возможные гипотезы. Правило минимизации вероятности ошибки (формула (3.31)) гласит, что если отношение функций правдоподобия больше отношения априорных вероятностей, то следует выбирать гипотезу Я,.
В разделе Б.З. 1 показано, что при P(sx) - P(s2) и симметричных функциях правдоподобия p(z | s,) (t =1, 2) подстановка формул (3.5) и (3.6) в формулу (3.31) дает
Н,
z(r)^£i±5. =7о> (3.32)
н2
где я, — сигнальный компонент z(T) при передаче sj(r), а аг — сигнальный компонент z(T) при передаче s2(t). Порог Yo, представленный выражением (а, + а2)/2, — это оптимальный порог для минимизации вероятности принятия неверного решения в этом важном частном случае. Описанный подход называется критерием минимальной ошибки.
Для равновероятных сигналов оптимальный порог у0, как показано на рис. 3.2, проходит через пересечение функций правдоподобия. Следовательно, из формулы (3.32), видим, что этап принятия решения заключается в эффективном выборе ги
потезы, соответствующей сигналу с максимальным правдоподобием. Пусть, например, значение выборки принятого сигнала равно г„(7), а значения функций правдоподобия того, что za(T) принадлежит к одному из двух классов st(t) или s2(t), отличны от нуля. В этом случае критерий принятия решения можно рассматривать как сравнение функций правдоподобия pfc,|si) и p(z„|si). Более вероятное значение переданного сигнала соответствует наибольшей плотности вероятности. Другими словами, детектор выбирает ^(г), если
p(z„|si) > p(za\s2).
В противном случае детектор выбирает s2(t). Детектор, минимизирующий вероятность ошибки (для классов равновероятных сигналов), называется детектором максимального правдоподобия.
Из рис. 3.2 можно видеть, что выражение (3.33) — это “метод здравого смысла” принятия решения при наличии статистических знаний о классах. Имея на выходе детектора значение z„(7), видим (рис. 3.2), что z„(T) пересекается с графиком функции правдоподобия si(t) в точке ^ и с графиком функции правдоподобия s2(t) в точке /2. Какое наиболее разумное решение должен принять детектор? В описанном случае наиболее здравым является выбор класса s,(f), имеющего большее правдоподобие. Если бы пример был М-мерным, а не бинарным, всего существовало бы М функций правдоподобия, представляющих М классов сигналов, к которым может принадлежать принятый сигнал. Решение по принципу максимального правдоподобия в этом случае представляло бы выбор класса, имеющего самое большое правдоподобие из М возможных. (Основы теории принятия решений даются в приложении Б.)
Дата добавления: 2015-10-28; просмотров: 83 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 10 страница | | | Основы теории принятая статистических решений 1051 12 страница |