Читайте также: |
|
ld,},lp9} = 100 1 1 1 1 1. (8.79)
Если информационные биты выражаются через значения биполярного электрического напряжения +1 и -1, соответствующие логическим двоичным уровням 1 и 0, то переданная последовательность будет следующей:
{di}, {pij} = +1, -1, -1, +1, +1, +1, +1, +1.
Допустим теперь, что помехи преобразуют эту последовательность информации и контрольных данных в принятую последовательность
{л:,}, {Xij} = 0,75,0,05, 0,10, 0,15, 1,25, 1,0, 3,0, 0,5, (8.80)
где компоненты {*/}, {х#} указывают переданную информацию и контрольные данные {dj}, {рц\. Таким образом, следуя позиционному описанию, принятую последовательность можно записать следующим образом:
{Xi}, {.Гу } Х„ Х2, Х3, Х4, Х,2, *34, *13, Х24.
Из уравнения (8.78) предполагаемые канальные измерения дают следующие значения LLR:
{Lc(xi)}, { Lc(x,j)} = 1,5, 0,1, 0,20, 0,3, 2,5, 2,0, 6,0, 1,0. (8.81)
Эти величины показаны на рис. 8.23, б как входные измерения декодера. Следует заметить, что (при равной априорной вероятности переданных данных) если принимаются жесткие решения на основе значений {**} или {Lc(xk)}, описанных ранее, то такой процесс должен в результате давать две ошибки, поскольку и d2, и </3 могут быть неправильно трактованы как двоичная 1.
8.4.3.2. Внешние функции правдоподобия
В случае композиционного кода, изображенного на рис. 8.23, при выражении мягкого выхода для принятого сигнала, соответствующего данным du используется уравнение (8.71), так что
Цd,) = Lc{xx) + L(dx) + {[ Lc(хг) + Щг)] ffl Lc(xlz)}, (8.82)
где члены {[L,(x2) + L(d2)\ ЕВ Lc(xn)} представляют внешнее LLR, распределенное кодом (т.е. прием соответствующих данных d2 и их априорной вероятности совместно с приемом соответствующей четности р12). В общем случае мягким выходом l\d-^ для принятого сигнала, соответствующего данным d„ будет
Ш,) = Lc(х,) + L(dt) + {[Lc(xj) + Udj)]S Lc(Xij)}, (8.83)
где Lc(xd, Lc(Xj) и Ьс(х„) — канальное измерение LLR приема соответствующих dh dj и Pij. Lid,), L(dj) — LLR для априорных вероятностей dt и dj, {[Lc(Xj) + L(dj)\ ЕБ Lc(xjj)} — внешнее распределение LLR для кода. Уравнения (8.82) и (8.83) становятся понятнее при рассмотрении рис. 8.23, б. В данной ситуации, если считать, что происходит равновероятная передача сигнала, мягкий выход L(dx) представляется измерением LLR детектора £./*,)= 1,5 для приема, соответствующего данным du плюс внешнее LLR [Lf(jc2) + Щ2) ffl Lc(xn) = 2,5], получаемое в результате того, что данные d2 и четность р{2 также дают сведения о данных du как это показывают уравнения (8.75) и (8.76).
8.4.3.3. Вычисление внешних функций правдоподобия
Для случая, показанного на рис. 8.23, горизонтальная часть расчетов для получения Leh Сd) и вертикальная часть расчетов для получения Lev(d) выглядят следующим образом:
A;a(^i) = \.Lc(x2)+ L(d2)\ ® ^Лх\г) > (g
Lev(^i) = [Lc(х3) + L(d$)] ЕВ Lc(x13), ^.g g^
Leh(d2) = [Lc(xj) + L(dy)] EB Lc(xl2), ^g g^ ^
Lev(d2) = [Lc(x4)+ L(d4)] ffl Lc (x2A), (g g5 g)
Leh(d3) = [Lc(xA) + L(d,)\ EB Lc(x3i), gg
Lev (d3) = [ Lc (xj) + L(d{)] Ш Lc (x13), (8.86,6)
Leh(di) = [Lc(x3) + L(d3)] EB Lc(x34), ^g ^
Lev(d4)=[Lc(x2) + Ш2))Ш Lc(*24). g7 ^
Значения LLR, показанные на рис. 8.23, входят в выражение для Leh(d) в уравнениях (8.84)-(8.87). Подразумевая передачу сигналов равновероятной, а начальную установку значения L(d) равной нулю, получаем следующее:
Leh Wi) = [0,1 + 0] ЕВ 2,5 = -ОД — новое L(d{), ^
Leh(d2) = [1,5 + 0] ЕВ 2,5 = -1,5 — новое L(d,), ^ gg^
Leh(d3) = [0,3 + 0] ffl 2,0 = -0,3 — новое L(d,), ^ д(^
Leh(d4) = [0,2 + 0] EB 2,0 = -0,2 —новое L{d\), (8 91)
где сложения логарифма функции правдоподобия производятся, исходя из приближения, показанного в уравнении (8.73). Далее, продолжая первое вертикальное вычисление, используются выражения для Lev(d) из уравнений (8.84)-(8.87). Теперь значение
L(d) можно обновить, исходя из нового значения L(d), полученного из первого вертикального вычисления, показанного в уравнениях (8.88)—(8.91):
Lev(dy) = [0,2-0,3] ЕВ 6,0 = 0,1 — новое Ud\), ^ 92)
Lev (d2) = [0,3 - 0,2] ЕЗ 1,0 = -0,1 — новое L(d2), ^ дз^
Lev (d3) = [1,5 - ОД] ЕВ 6,0 = -1,4 — новое Щъ), ^ д4^
4v(^4) = [ОД-1.5] ЕВ 1,0 = 1,0 — новое Ш4). ^ д5^
Результаты первой полной итерации двух этапов декодирования (горизонтального и вертикального) будут следующими:
Lev(d) после первого горизонтального декодирования
0,1 | -0,1 |
-1,4 | 1,0 |
Lev(d) после первого вертикального декодирования
Каждый этап декодирования улучшает исходные LLR, которые основываются только на канальных измерениях. Это видно из расчетов выходного LLR декодера с помощью уравнения (8.74). Исходное LLR и внешние горизонтальные LLR вместе дают следующее улучшение (внешний вертикальный член еще не рассматривался).
Улучшение LLR из-за Leh(d)
1,4 | -1,4 |
-0,1 | 0,1 |
Исходное LLR совместно с горизонтальным и вертикальным внешним LLR дает следующее улучшение.
Улучшение LLR из-за Leh (d) + Lev (d)
1,5 | -1,5 |
-1,5 | 1,1 |
В данном случае можно видеть, что сведений, полученных лишь из горизонтального декодирования, достаточно для получения правильного жесткого решения вне декодера, но с низкой степенью доверия к битам данных d3 и dA. После включения внешних вертикальных LLR в декодер новые значения LLR появляются на более высоком уровне надежности и доверия. Пусть будет произведена еще одна вертикальная и одна горизонтальная итерация декодирования, чтобы определить наличие или отсутствие существенных изменений в результатах. Снова на помощь приходят отношения из уравнений (8.84)—(8.87), и далее следует горизонтальное вычисление для получения Leh(d) с новым L(d) из первого вертикального расчета, показанного в уравнениях (8.92)-(8.95), так что получаем следующее:
Leh(d{) = [ОД-0,1] Ш 2,5 = 0 — новое Щ{) (8.96)
Leh{d2) = [1,5 - 0,1] ЕВ 2,5 = -1,6 — новое Щг) (8.97)
Leh 0*з) = [°>3 ~ 1.03 Н 2,0 = -1,3 — новое Щъ) (8.98)
Leh (dd = t°>2 -!>41 ffl 2,0 =1,2 — новое Щл) ^ gg^
Затем необходимо выполнить второе вертикальное вычисление для получения Lev(d) с новым L(d), полученным из второго горизонтального расчета, показанного в уравнениях (8.96)—(8.99), что приводит к следующему:
Lev(rfi)=[0,2-1,3]EB6,0 = U новоеL(d{), ^qqj
Lev(d2) = [0,3 +1,2] ЕВ 1,0 = -1,0 — новое L(d2), 101^
Lev (d3) = [1,5 + 0] ЕВ 6,0 = -1,5 — новое Щъ), ^ 1Q2)
Lev (d4) = [0,1 -1,6] ffl 1,0 = 1,0 — новое Щ4). (8 Ш3)
Вторая итерация вертикального и горизонтального декодирования, дающая упомянутые выше величины, отражается на мягких выходных LLR, которые снова рассчитываются из уравнения (8.74), переписанного следующим образом:
L(d) = Lc(x) + Leh(d) + Lev(d). jq^
Горизонтальные и вертикальные LLR из уравнений (8.96)-(8.103) и итоговое LLR декодера показаны ниже. В данном примере вторые итерации, горизонтальная и вертикальная, что в целом дает всего четыре итерации, показывают скромный прирост, по сравнению с одной вертикальной и горизонтальной итерацией. Результаты показывают, что доверительные значения сохраняются для каждого из четырех данных.
Исходные измерения Lc{x)
L^id) после второго горизонтального декодирования
1,1 | -1,0 |
-1,5 | 1,0 |
Leh(d) после второго вертикального декодирования
Мягкий выход равен L(d) = Lc(x) + Leh (d) + Lev(d), который после всех четырех итераций дает следующие значения L(d):
2,6 | -2,5 |
-2,6 | 2,5 |
В результате видно, что получены правильные решения по каждому биту данных и уровень доверия к этим решениям высок. Итеративное декодирование турбокодов напоминает процесс решения кроссвордов. Первый проход по кроссворду, вероятно, содержит несколько ошибок. Некоторые слова нуждаются в подгонке, но когда буквы в нужных строках и столбцах не подходят, нужно вернуться и исправить слова, вписанные после первого прохода.
8.4.4. Кодирование с помощью рекурсивного систематического кода
Ранее были описаны основные идеи сочетаний, итераций и мягкого декодирования на примере простого композиционного кода. Затем эти идеи применялись при реализации турбокодов, которые образуются в результате параллельных сочетаний сверточных кодов [17, 20].
Далее наступает очередь обзора простых двоичных сверточных кодеров со степенью кодирования 1/2, длиной кодового ограничения К и памятью порядка К- 1. На вход кодера в момент к, подается бит db и соответствующим кодовым словом будет битовая пара (uh vk), где
AT — 1
м* = ^ gi, dk _, по модулю 2, gu = 0,1 (8.105)
i = 0
и
AT — 1
V4 = X &2i dk - i по модулю 2, g2i = 0,1. (8.106)
1 = 0
Gi = {gi,} и G2 = {gu} — генераторы кода, a dk представлен как двоичная цифра. Этот кодер можно представить как линейную систему с дискретной конечной импульсной характеристикой (finite impulse response — FIR), порождающую хорошо знакомый несистематический сверточный (nonsystematic convolutional — NSC) код, разновидность которого показана на рис. 8.24. Соответствующую решетчатую структуру можно увидеть на рис. 7.7. В данном случае длина кодового ограничения равна К = 3 и используются два генератора кода — Gi = {111} и G2 = {101}. Хорошо известно, что при больших значениях EJNq достоверность передачи с кодом NSC выше, чем у систематического кода с той же памятью. При малых значениях Еь/No существует обходной путь [17]. В качестве составляющих компонентов для турбокода был предложен класс сверточных кодов с бесконечной импульсной характеристикой [17]. Такие же компоненты используются в рекурсивных систематических сверточных (recursive systematic convolutional — RSC) кодах, поскольку в них предварительно кодированные биты данных постоянно должны подаваться обратно на вход кодера. При высоких степенях кодирования коды RSC дают значительно более высокие результаты, чем самые лучшие коды NSC, при любых значениях EJNq. Двоичный код RSC со степенью кодирования 1/2 получается из кода NSC с помощью контура обратной связи и установки одного из двух выходов («* или vt) равным dk. На рис. 8.25, а показан пример такого RSC-кода с К = 3, где а* получается из рекурсивной процедуры
ак = dk + 2] S', ak -, по модулю 2, (8.107)
1 = 0
a g' равно gu, если ut = dk, и g2i — если vt = dk. На рис. 8.25, б изображена решетчатая структура RSC-кода, представленного на рис. 8.25, а.
Рис. 8.24. Несистематический сверточный код (nonsystematic convolutional — NSC) |
Рис. 8.25а. Рекурсивный систематический сверточный код (recursive systematic convolutional — RSC) |
Кодовое слово ветви и v Рис. 8.256. Решетчатая структура RSC- кода, представленного на рис. 8.25, а |
Считается, что входной бит dv с одинаковой вероятностью может принимать как значение 1, так и 0. Кроме того, {ak} показывает те же статистические вероятности, что и{dk} [17]. Просвет одинаков у RSC-кода (рис. 8.25, а) и NSC-кода (рис. 8.24). Точно так же совпадает их решетчатая структура по отношению к переходам между состояниями и соответствующим входным битам. Впрочем, у RSC- и NSC-кодов две
выходные последовательности {ик} и {vt} не соответствуют той же входной последовательности {dk}. Можно сказать, что при тех же генераторах кода распределение весовых коэффициентов кодовых слов RSC-кодера не изменяется, по сравнению с распределением весовых коэффициентов кодовых слов NSC-кодера. Единственное различие состоит в отображении между входной и выходной последовательностями данных.
Пример 8.5. Рекурсивные кодеры и их решетчатые диаграммы
а) Используя RSC-кодер (рис. 8.25, а), проверьте справедливость участка решетчатой структуры (диаграммы), изображенного на рис. 8.25, б.
б) Для кодера, указанного в п. а, начиная с последовательности данных {dk} = 1 1 10, поэтапно покажите процедуру кодирования до нахождения выходного кодового слова.
Решение
а) Для кодеров NSC содержимое регистра и переходы между состояниями отслеживаются непосредственно. Но если кодер является рекурсивным, следует быть очень аккуратным. В табл. 8.5 содержится 8 строк, соответствующих 8 возможным переходам в данной системе, образованной из 4-х состояний. Первые четыре строки представляют переходы, когда входной информационный бит dk является двоичным нулем, а последние четыре — переходы, в которых dk является единицей. В данном случае процедуру кодирования с помощью табл. 8.5 и рис. 8.25 можно поэтапно описать следующим образом.
1. В момент введения произвольного входного бита, к, состояние перед переходом (начальное) определяется содержимым двух крайних разрядов регистра, а именно — ак-1 и ак-2.
2. В любой строке таблицы (переход на решетке) поиск содержимого разряда ак выполняется сложением (по модулю 2) битов dk, ак. \ и ак.2 в этой строке.
3. Выходная кодовая последовательность битов, ukvk, для каждого возможного начального состояния (т.е. а = 00, Ь = 10, с = 01 и d = 11) находится путем прибавления (по модулю 2) ака ак-г к dk = ик.
Таблица 8.5. Проверка участка решетки с рис. 8.25, б
|
Нетрудно убедиться, что элементы табл. 8.5 соответствуют участку решетки, изображенному на рис. 8.25, б. При использовании для реализации составных кодов регистров сдвига у турбокодеров проявляется интересное свойство, которое заключается в том, что два перехода, входящие в состояние, не соответствуют одному и тому же входному битовому значению (т.е. в данное состояние не входят две сплошные или две пунктирные линии). Это свойство проявляется, если полиномиальное описание обратной связи реги-
стра сдвига имеет все порядки или одна из линий обратной связи выходит из разряда более высокого порядка, в данном случае ак. г-
б) Существует два способа реализации кодирования входной информационной последовательности {cf*} = 1 1 10. Первый состоит в применении решетчатой диаграммы, а другой — в использовании цепи кодера. Воспользовавшись участком решетки, изображенным на рис. 8.25, б, мы выбираем переход по пунктирной линии (представляющий двоичную единицу) из состояния а = 00 (естественный выбор начального состояния) в следующее состояние b - 10 (которое подходит в качестве стартового для следующего входного бита). Следует заметить, что биты показаны на этом переходе как выходная кодовая последовательность 11. Эта процедура повторяется для каждого входного бита. Другой способ предполагает построение таблицы, такой как табл. 8.6, на основе цепи кодера, изображенной на рис. 8.25, а. Здесь время к показано от начала до конца всей процедуры (5 моментов времени и 4 временных интервала). Табл. 8.6 записывается в следующем порядке.
1. В произвольный момент времени бит данных dk начинает преобразовываться в ак путем суммирования его (по модулю 2) с битами ак-\ и ак-г в той же строке.
2. Например, в момент времени к = 2 бит данных dk = 1 преобразуется в ак = 0 путем суммирования его с битами ак-1 и ак-г в той же строке к = 2.
3. Итоговый выход ukvk= 10, определяемый логической схемой кодера, является кодовой битовой последовательностью, связанной со временем к = 2 (в действительности — интервалом между к = 2 и к = 3).
4. В момент к = 2 содержимое крайних правых разрядов ак-\ак-г (10) представляет собой состояние системы в начале этого перехода.
5. Конечное состояние этого перехода представляется содержимым двух крайних левых регистров акак~ \ в той же строке (01). Поскольку сдвиг битов происходит слева направо, это конечное состояние перехода в момент к = 3 будет представлено как стартовое в следующей строке.
6. Каждая строка описывается аналогично. Таким образом, в последнем столбце табл. 8.6 можно будет увидеть кодированную последовательность 1110110 0.
Таблица 8.6. Кодирование битовой последовательности с помощью кодера, изображенного на рис. 8.25, а
|
8.4.4.1. Конкатенация кодов RSC
Рассмотрим параллельную конкатенацию двух RSC-кодеров, подобных изображенному на рис. 8.25. Хороший турбокод строится из составных кодов с небольшой длиной кодового ограничения (К = 3-5). В качестве примера такого турбокодера можно взять кодер, показанный на рис. 8.26, где переключатель vk делает степень кодирования всего кода равной 1/2. Без переключателя степень кодирования кода будет рав-
на 1/3. Ограничений на количество соединяемых кодеров нет. Составные коды должны иметь одинаковую длину кодового ограничения и степень кодирования. Целью разработки турбокода является наилучший подбор составных кодов путем минимизации просвета кода [21]. При больших значениях Et/N0 это эквивалентно максимизации минимального весового коэффициента кодовых слов. Хотя при низких значениях Ei/N0 (область, представляющая наибольший интерес) оптимизация распределения весовых коэффициентов кодовых слов является более важной, чем их максимизация или минимизация [20].
Рис. 8.26. Схема параллельного соединения двух RSC-кодеров |
Турбокодер, изображенный на рис. 8.26, выдает кодовые слова из каждого из двух своих составных кодеров. Распределение весовых коэффициентов кодовых слов без такого параллельного соединения зависит от того, сколько кодовых слов из одного составного кодера комбинируется с кодовыми словами из другого составного кодера.
Интуитивно понятно, что следует избегать спаривания кодовых слов с малым весовым коэффициентом из одного кодера с кодовыми словами с малым весовым коэффициентом из другого кодера. Большого количества таких спариваний можно избежать, сконфигурировав надлежащим образом устройство чередования. Устройство, которое обрабатывает данные случайным образом, более эффективно, чем рассмотренное ранее блочное устройство чередования [22].
Если составной кодер не рекурсивный, входная последовательность с единичным1 весовым коэффициентом (0 0... 0 0 1 0 0... 0 0) всегда будет генерировать кодовое слово с малым весовым коэффициентом на входе второго кодера, при любой конструкции устройства чередования. Иначе говоря, устройство чередования не сможет повлиять на выходное распределение весовых коэффициентов кодовых слов, если составные коды не рекурсивные. Впрочем, если составные коды рекурсивные, входная последовательность с единичным весовым коэффициентом генерирует бесконечную импульсную характеристику (выход с бесконечным весовым коэффициентом). Следовательно, при рекурсивных кодах входная последовательность с единичным весовым
коэффициентом не дает кодового слова с минимальным весовым коэффициентом вне кодера. Кодированный выходной весовой коэффициент сохраняется конечным только при погашении решётки, процессе, принуждающем кодированную последовательность к переходу в конечное состояние таким образом, что кодер возвращается к нулевому состоянию. Фактически сверточный код преобразуется в блочный.
Для кодера, изображенного на рис. 8.26, кодовое слово с минимальным весовым коэффициентом для каждого составного кодера порождается входной последовательностью с весовым коэффициентом 3 (0 0... О 0 1 1 1 0 0 0... О 0) и тремя последовательными единицами. Другая последовательность, порождающая кодовые слова с малым весом, представлена последовательностью с весом 2 (0 0... 0 0 1 0 0 1 0 0... 0 0). Однако после перестановок, внесенных устройством чередования, любая из этих опасных структур имеет слабую вероятность появления на входе второго кодера, что делает маловероятной возможность комбинирования одного кодового слова с малым весом с другим кодовым словом с малым весом.
Важным аспектом компоновки турбокодов является их рекурсивность (систематический аспект незначителен). Это бесконечная импульсная характеристика, присущая кодам RSC, которая является защитой от генерации кодовых слов с малым весом, не поддающихся исправлению в устройстве чередования. Можно обсудить то, что производительность турбокодера сильно поддается влиянию со стороны кодовых слов с малым весом, производимых входной последовательностью с весом 2. В защиту этого можно сказать, что входную последовательность с весом 1 можно проигнорировать, поскольку она дает кодовые слова с большим весом из-за бесконечной импульсной характеристики кодера. Для входной последовательности, имеющей вес 3 и более, правильно сконфигурированное устройство чередования делает вероятность появления кодовых слов с малым весом на выходе относительно низкой [21—25].
8.4.5. Декодер с обратной связью
Использование алгоритма Витерби является оптимальным методом декодирования для минимизации вероятности появления ошибочной последовательности. К сожалению, этот алгоритм (с жесткой схемой на выходе) не подходит для генерации апостериорной вероятности (a posteriori probability — АРР) или мягкой схемы на выходе для каждого декодированного бита. Подходящий для этой задачи алгоритм был предложен Балом и др. [26]. Алгоритм Бала был модифицирован Берру и др. [17] для использования в кодах RSC. Апостериорную вероятность того, что декодированный бит данных
dk = можно вывести из совместной вероятности I!'™, определяемой как
X'km = P{dk =i, Sk = m\R\ },
где Sk = m — состояние кодера в момент времени к, a — принятая двоичная по-
следовательность за время от к = 1 в течение некоторого времени N.
Таком образом, апостериорная вероятность того, что декодированный информационный бит dk = i представляется как двоичная цифра, получается путем суммирования совокупных вероятностей по всем состояниям.
т |
(8.109)
Далее логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR) переписывается как логарифм отношения апостериорных вероятностей.
(8.110)
т
Декодер осуществляет схему решений, известную как решающее правило максимума апостериорной вероятности (maximum a posteriori — МАР), путем сравнения
L(dk) с нулевым пороговым значением.
dk = 1, если L{dk)> О dk= 0, если L(dk) < 0
Для систематического кода LLR L(dk), связанное с каждым декодированным битом dk, можно описать как сумму LLR для dk вне демодулятора и других LLR, порождаемых декодером (внешние сведения), как показано уравнениями (8.72) и (8.73). Рассмотрим детектирование последовательности данных с помехами, исходящей из кодера, изображенного на рис. 8.26, с помощью декодера, представленного на рис. 8.27. Предполагается, что используется двоичная модуляция и дискретный гауссов канал без памяти. Вход декодера формируется набором Rk из двух случайных переменных хк и ук. Для битов dk и vk, которые в момент времени к представляются двоичными числами (1, 0), переход к принятым биполярным импульсам (+1, -1) можно записать следующим образом:
xk — (2dk - 1) + ik
и
Ук — (2 У* — 1) + qk-
Здесь ik и qk являются двумя случайными статистически независимыми переменными с одинаковой дисперсией а2, определяющей распределение помех. Избыточная информация ук разуплотняется и пересылается на декодер DEC1 как у1к, если vt = vlt, и на декодер DEC2 как у2к, если vk = v2k. Если избыточная информация начальным декодером не передается, то вход соответствующего декодера устанавливается на нуль. Следует отметить, что выход декодера DEC1 имеет структуру чередования, аналогичную структуре, использованной в передатчике между двумя составными кодерами. Это связано с тем, что информация, обрабатываемая декодером DEC1, является неизмененным выходом кодера С1 (искаженной канальным шумом). И наоборот, информация, обрабатываемая декодером DEC2, является искаженным выходом кодера С2, вход которого составляют как раз те данные, что поступают в С1, но обработаны устройством чередования. Декодер DEC2 пользуется выходом декодера DEC1, обеспечивая такое же временное упорядочение этого выхода, как и входа С2 (т.е. две последовательности в декодере DEC2 должны придерживаться позиционной структуры сигналов в каждой последовательности).
Дата добавления: 2015-10-28; просмотров: 76 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 42 страница | | | Основы теории принятая статистических решений 1051 44 страница |