Читайте также: |
|
б) Объясните, каким образом суммирование по состояниям т' в уравнении (8.130,а) дает в итоге уравнение (8.130,6).
в) Повторите п. а и покажите, как уравнение (8.133) переходит в уравнение (8.135), Также объясните, как суммирование по состояниям от' в будущий момент k+ 1 дает уравнение (8.135).
8.20. Исходя из уравнения (8.139) для метрики ветви покажите, каким образом получается уравнение (8.140), и укажите, какие члены следует считать постоянными Ак в уравнении (8.140). Почему члены Ак не появляются в уравнении (8 140,а)?
8.21. Устройство чередования на рис. 8.27 (аналогичное устройству в соответствующем кодере) гарантирует, что выходная последовательность декодера DEC1 упорядочена во времени так же, как и последовательность {у2к}. Можно ли реализовать это более простым способом? Что можно сказать о применении устройства восстановления в нижнем ряду? Не будет ли это более простым способом9 Если это осуществить, тогда можно будет убрать два прежних устройства восстановления. Объясните, почему это не сработает.
8.22. При декодировании согласно алгоритму Витерби, используется устройство сложения, сравнения и выбора (add-compare-select — ACS). А при реализации алгоритма максимума апостериорной (maximum a posteriori — МАР) вероятности в турбодекодировании не применяется идея сравнения и выбора переходов. Вместо этого в алгоритме МАР рассматриваются все метрики ветвей и состояний для данного интервала времени. Объясните это принципиальное различие между двумя алгоритмами.
8.23. На рис. 38.2 показан рекурсивный систематический сверточный (recursive systematic convolutional — RSC) кодер со степенью кодирования 1/2, К = 4. Заметьте, что на рисунке используется формат памяти в виде 1-битовых блоков задержек (см. раздел 8.4.7.4). Следовательно, текущее состояние цепи можно описать с помощью уровней сигналов в точках а*-1, ак-2, ак-ъ, аналогично способу описания состояния в формате разрядов памяти. Составьте таблицу, аналогичную табл. 8.5, которая будет определять все возможные переходы в цепи, и с ее помощью изобразите участок решетки.
Рис. 38.2. Рекурсивный систематический сверточный (RSC) кодер со степенью кодирования 1/2, К = 4 |
8.24. На рис. 38.3 показан рекурсивный систематический сверточный (recursive systematic convolutional — RSC) кодер со степенью кодирования 2/3, К = 3. Заметьте, что на рисунке используется формат памяти в виде 1-битовых блоков задержек (см. раз-* дел 8.4.7.4). Составьте таблицу, аналогичную табл. 8.5, которая будет определять все возможные переходы в цепи, и с ее помощью изобразите участок решетки. С помощью таблицы, подобной табл. 8.6, найдите выходное кодовое слово для информаци-
онной последовательности 1 1001 1001 1. В течение каждого такта данные поступают в цепь в виде пары {d>k, dtk}, а каждое выходное кодовое слово {dXh dik, vk} образуется из пары битов данных и одного контрольного бита, vk.
Рис. 38.3. Рекурсивный систематический сверточный (RSC) кодер со степенью кодирования 2/3, К = 3 |
8.25. Рассмотрим турбокод, состоящий из двух сверточных кодов, которые, в свою очередь, состоят из четырех состояний. Оба составных кода описываются решеткой, которая изображена на рис. 8.25, 6. Степень кодирования кода равна 1/2, а длина блока — 12. Второй кодер оставлен не погашенным. Метрики ветвей, прямые метрики состояний и обратные метрики состояний для информационных битов, связанных с кодером в конечном состоянии, описываются матрицей, изображенной ниже. Принятый 12-сигнальный вектор образован из сигнала данных, сигнала контроля четности, сигнала данных, сигнала контроля четности и т.д. и имеет следующие значения.
1,2 1,3 -1,2 0,6 -0,4 1,9 -0,7 -1,9 -2,2 0,2 -0,1 0,6 Матрица ветвей
с0, (1 сО, о О 2 ь2 | с0, а •• 5б | "1,00 | 1,00 | 1,00 | 1,00 | 1,00 | 1,00’ | |
cl,fl • 5, •. • | cl, Д •• 5б | 3,49 | 0,74 | 2,12 | 0,27 | 0,37 | 1,28 | |
с0, b 51 | 1,00 | 1,00 | 1,00 | 1,00 | 1,00 | 1,00 | ||
с I уЬ • • 51 | 3,49 | 0,74 | 2,12 | 0,27 | 0,37 | 1,28 | ||
с*0, С | 1,92 | 1,35 | 2,59 | 0,39 | 1,11 | 1,35 | ||
5}-с • | 1,82 | 0,55 | 0,82 | 0,70 | 0,33 | 0,95 | ||
с0, d • • 51 | 1,92 | 1,38 | 2,59 | 0,39 | 1,11 | 1,35 | ||
gl,rf А ••• • | с I, rf Об | 1,82 | 0,55 | 0,82 | 0,70 | 0,33 | 0,95 |
Альфа-матрица (ос™)
’а? а.2 • | •• <' | 1,00 | 1,00 | 1,00 | 5,05 | 8,54 | 10,41 | 24,45' | |
а? ••. • | - | 0,00 | 0,00 | 1,92 | 12,79 | 5,07 | 10,93 | 31,48 | |
«1 - | 0,00 | 3,49 | 0,74 | 4,03 | 14,16 | 8,22 ' | 24,30 | ||
а- - • | а7 | 0,00 | 0,00 | 4,71 | 5,77 | 5,63 | 17,53 | 27,76_ |
Бета-матрица ((3JJ1)
Pi PS • | - Pv‘ | '24,45 | 5,44 | 2,83 | 1,12 | 1,00 | 1,00 | 1,00' | |
Р? • | - P? | 24,43 | 5,62 | 3,17 | 0,70 | 0,37 | 1,28 | 0,00 | |
Pf - ' | 21,32 | 5,45 | 3,53 | 0,81 | 0,43 | 0,00 | 0,00 | ||
Pf - ■ | .. | 21,31 | 5,79 | 2,75 | 1,14 | 1,42 | 0,00 | 0,00 |
Вычислите логарифмическое отношение функций правдоподобия для каждого из шести информационных битов {dk}. С помощью правила принятия решений алгоритма МАР найдите наиболее вероятную последовательность информационных битов, которая могла быть передана.
Вопросы для самопроверки
8.1. Объясните высокую эффективность кодов Рида-Соломона при наличии импульсных помех (см. раздел 8.1.2.).
8.2. Объясните, почему кривые на рис. 8.6 показывают снижение достоверности передачи при низких значениях степеней кодирования (см раздел 8.1.З.).
8.3. Среди всех способов определения примитивности полинома наиболее простой — использование линейного регистра сдвига с обратной связью (linear feedback shift register — LFSR). Объясните эту процедуру (см. пример 8.2.).
8.4. Объясните, каким образом можно получить синдром, вычисляя принятый полином со всеми значениями корней полиномиального генератора кода (см. раздел 8.1.6.1).
8.5. Какое ключевое преобразование осуществляет система чередования/восстановления над импульсными помехами (см. раздел 8.2.1.)?
8.6. Почему предел Шеннона, равный -1,6 дБ, не представляет интереса при разработке реальных систем (см. раздел 8.4.5.2.)?
8.7. Почему алгоритм декодирования Витерби не дает апостериорных вероятностей (см. раздел 8.4.6.)?
8.8. Каково более описательное название алгоритма Витерби (см. раздел 8.4.6.)?
8.9. Опишите сходство и отличие в реализации декодирования на основе алгоритмов Витерби и максимума апостериорной вероятности (МАР) (см. раздел 8.4.6.).
ГЛАВА 9
Компромиссы при использовании модуляции и кодирования
9.1. Цели разработчика систем связи
Системные компромиссы — это неотъемлемая часть всех разработок цифровых систем связи. Разработчик должен стремиться к 1) увеличению скорости передачи бит R до максимально возможной; 2) минимизации вероятности появления битовой ошибки Рв; 3) минимизации потребляемой мощности, или, что то же самое, минимизации требуемого отношения энергии одного бита к спектральной плотности мощности шума E,JNq, 4) минимизации ширины полосы пропускания W; 5) максимизации эффективности использования системы, т.е. к обеспечению надежного обслуживания для максимального числа пользователей с минимальными задержками и максимальной устойчивостью к возникновению конфликтов; и 6) минимизации конструктивной сложности системы, вычислительной нагрузки и стоимости системы. Конечно, разработчик системы может попытаться удовлетворить всем требованиям одновременно. Однако очевидно, что требования 1 и 2 противоречат требованиям 3 и 4; они предусматривают одновременное увеличение скорости R и минимизацию Рв, EJN0, W. Существует несколько сдерживающих факторов и теоретических ограничений, которые неизбежно влекут за собой компромиссы в любых системных требованиях.
Минимальная теоретически требуемая ширина полосы частот по Найквисту Теорема о пропускной способности Шеннона-Хартли (и предел Шеннона) Государственное регулирование (например, распределение частот) Технологические ограничения (например, современные комплектующие) Другие системные требования (например, орбиты спутников)
Некоторые реализуемые компромиссы между кодированием и модуляцией можно лучше показать через изменение положения рабочей точки на одной из двух плоскостей — характеристике вероятности появления ошибки и характеристике эффективности использования полосы частот; обе описываются в следующих разделах.
9.2. Характеристика вероятности появления ошибки
На рис. 9.1 показаны семейства кривых зависимости Рв от E,JN0 для когерентного детектирования ортогональных (рис. 9.1, а) и многофазных сигналов (рис. 9.1, б). Для представления каждой ^-битовой последовательности модулятор использует один из М = 2* сигналов, где М — размер набора символов. На рис. 9.1, а изображено потенциальное снижение частоты появления ошибок с повышением к (или М) при передаче ортогональных сигналов. Для ортогональных наборов сигналов, таких как сигналы в ортогональной частотной манипуляции (frequency shift keying — FSK), увеличение размера набора символов может дать снижение Рв, или требуемого E,JNQ, за счет увеличения полосы пропускания. На рис. 9.1, б показано повышение частоты появления ошибок с увеличением к (или М) при передаче неортогональных сигналов. Для наборов неортогональных сигналов, таких как сигналы в многофазной манипуляции (multiple phase shift keying — MPSK), расширение набора символов может снизить требования к полосе пропускания за счет повышения Рв, или требуемого значения EtJNa. Далее эти семейства кривых (рис. 9.1, а или б) будут называться кривыми характеристик вероятности появления ошибок, а плоскость, в которой они лежат, — плоскостью вероятности появления ошибок. Такие характеристики показывают, где может располагаться рабочая точка для конкретных схем модуляции и кодирования. Для системы с данной скоростью передачи
информации каждую кривую на плоскости можно связать с различными фиксированными значениями минимально необходимой полосы пропускания; а значит, некое множество кривых можно представить как множество кривых равной полосы пропускания. При передвижении по кривой в направлении возрастания ординаты, ширина полосы пропускания, необходимая для передачи, увеличивается; и напротив, если перемещаться в обратном направлении, то требуемая полоса пропускания уменьшится. После выбора схемы модуляции и кодирования, а также номинального значения E,JNa функционирование системы характеризуется конкретной точкой на плоскости вероятности появления ошибок. Возможные компромиссы можно рассматривать как изменение рабочей точки на одной из кривых или как переход с рабочей точки одной кривой семейства в рабочую точку другой. Эти компромиссы изображены на рис. 9.1 а и б как смещения рабочей точки системы в направлении, указанном стрелками. Перемещение рабочей точки вдоль линии 1 между точками а и b можно считать компромиссом между Рв и характеристикой EJN0 (при фиксированном значении W). Аналогично сдвиг вдоль линии 2, между точками cud, является поиском компромисса между Рв и W (при фиксированном значении E,JN0). И наконец, перемещение вдоль линии 3, между точками ей/, представляет собой поиск компромисса между W и E,JNa (при фиксированном значении Рв). Сдвиг вдоль линии 1 — это снижение или повышение номинального значения EJNq. Этого можно достичь, например, путем повышения мощности передатчика; это означает, что компромисс можно осуществить просто “поворотом регулятора” даже после завершения конфигурации системы. В то же время другие компромиссы (сдвиги вдоль линий 2 или
3) включают изменения в схеме модуляции или кодирования, а значит, их следует осуществлять на этапе разработки системы. Изменять тип модуляции и кодирования в системе программным путем можно будет с помощью программных средств связи [1].
9.3. Минимальная ширина полосы пропускания по Найквисту
В любой реализуемой системе, выполняющей неидеальную фильтрацию, будет межсим- вольная интерференция — хвост одного импульса распространяется на соседние символы и мешает процессу детектирования. Найквист [2] показал, что теоретическая минимальная ширина полосы пропускания (ширина полосы частот по Найквисту), требуемая для немо- дулированной передачи Rs символов за секунду без межсимвольной интерференции, составляет RJ2 Гц. Это основное теоретическое ограничение, вынуждающее разработчика настолько аккуратно использовать полосу частот, насколько это возможно (см. раздел 3.3). На практике минимальная ширина полосы частот по Найквисту увеличивается на 10-40% вследствие ограничений реальных фильтров. Таким образом, реальная пропускная способность цифровых систем связи снижается с идеальных 2 символа/с/Гц до 1,8- 1,4 символа/с/Гц. Из набора М символов, система модуляции или кодирования присваивает каждому символу ^-битовое значение, где М = 2к. Таким образом, число битов на символ можно представить как k = \og2 М, и, следовательно, скорость передачи данных, или скорость передачи битов R, должна быть в к раз больше скорости передачи символов Rs, как видно из следующего основного соотношения:
R = kR или Rs= — = ——— (9-1)
1 к: log2 М
9.3. Минимальная шиоина ПОЛОСЫ ПГИ->ГШГКЯИ1ла пп Найгаилти
б) |
Рис. 9.1. Зависимость вероятности появления битовой ошибки от Eb/N0 при когерентном детектировании М-арных сигналов: а) ортогональные сигналы; б) многофазные сигналы |
Для системы с фиксированной скоростью передачи символов из выражения (9.1) видно, что с ростом к увеличивается и скорость передачи битов R. При использовании схемы MPSK с увеличением к повышается эффективность использования полосы частот R/W, измеряемая в бит/с/Гц. Например, сдвиг вдоль линии 3, из точки е в точку/, как видно на рис. 9.1, б, представляет собой повышение EJN0 за счет снижения требований к полосе пропускания. Другими словами, при той же полосе пропускания MPSK-модулированные сигналы можно передавать с повышенной скоростью передачи данных, а значит с увеличенным R/W.
Пример 9.1. Классификация схем цифровой модуляции
В некотором смысле все схемы цифровой модуляции относятся к одному из двух классов с противоположными характеристиками. Первый класс — это передача ортогональных сигналов; достоверность такой передачи описывается кривыми на рис. 9.1, а. Ко второму классу относится передача неортогональных сигналов (набор векторов сигналов можно отобразить на плоскости). На рис. 9.1, б представлен пример передачи неортогональных сигналов — модуляция MPSK. Вообще, любая фазовая/амплитудная модуляция (например, QAM) относится ко второму классу. Используя рис. 9.1, ответьте на следующие вопросы.
а) Как в случае М-арной передачи сигналов будет меняться достоверность передачи (увеличиваться или снижаться) при повышении М?
б) Возможности выбора в цифровой связи почти всегда сопряжены с компромиссами. Если достоверность передачи растет, то за счет чего?
в) Если растет вероятность появления ошибки, то какую выгоду можно получить из этого?
Решение
а) Из рис. 9.1 можно видеть, что повышение или снижение достоверности передачи зависит от рассматриваемого класса передачи сигналов. Рассмотрим передачу ортогональных сигналов (рис. 9.1, а), где достоверность передачи растет с увеличением к или М. Напомним, что существует лишь два способа сравнения подобных характеристик достоверности передачи. Можно провести вертикальную линию при некотором фиксированном значении Erf No и увидеть, что при уменьшении к или М Рв снижается. Или наоборот, можно провести горизонтальную линию, фиксирующую некоторое значение Рв, и с ростом к или М отметить снижение требований к E/JNo. Точно так же на рис. 9.1, б можно видеть, что при неортогональной передаче, такой как модуляция MPSK, характеристики ведут себя абсолютно иначе. Достоверность передачи снижается при увеличении к или М.
б) Чем мы платим за передачу ортогональных сигналов, при которой достоверность передачи повышается с ростом к или Ml Наиболее распространенным вариантом передачи ортогональных сигналов является схема MFSK, где к - 1 иМ = 2,а набор тонов состоит из двух сигналов. Если к = 2 и М = 4, в наборе уже содержится четыре тона. При к = 3 и М = 8 будет уже восемь сигналов и т.д. При использовании схемы MFSK за время передачи символа отсылается только один тон, но доступная полоса пропускания — это весь набор тонов. Следовательно, при увеличении к или М за повышение достоверности передачи придется платить расширением требуемой полосы пропускания.
в) При передаче неортогональных сигналов (схема MPSK или QAM) с ростом к или М достоверность передачи падает. Логично предположить, что компромисс повлечет за собой снижение требований к полосе пропускания. Рассмотрим следующий пример. Пусть требуется скорость передачи данных R = 9600 бит/с, а в качестве модуляции используется 8-уровневая схема PSK. Тогда с помощью уравнения (9.1) скорость передачи символов находится следующим образом:
R 9600 бит/с
К5 = = = 3200 символов/с.
log2 М 3 бит/символ
Если для передачи воспользоваться 16-уровневой схемой PSK, то скорость передачи символов будет равна следующему:
9600биг/с Rs = = 2400 символов/с.
4 бит/символ
Если применить 32-уровневую схему PSK, скорость передачи символов будет равна
9600 бит/с Rs = = 1920 символов/с.
5 бит/символ
Что происходит, когда на рис. 9.1,6 рабочая точка сдвигается вдоль горизонтальной линии с кривой с к = 3 на кривую с к = 4 и далее на кривую с к = 5? При данной скорости передачи данных и вероятности появления ошибки каждый такой сдвиг позволяет осуществлять передачу на все более низких скоростях. Всякий раз, когда говорится “более низкая скорость передачи сигнала”, это эквивалентно сообщению, что имеется возможность уменьшить ширину полосы пропускания. Аналогично любое повышение скорости передачи сигналов соответствует увеличению ширины полосы пропускания.
9.3. Минимальная тмпмня ппппги nnnnurrauua пп Няй|епм<~т\/
9.4. Теорема Шеннона-Хартли о пропускной способности канала
Шеннон [3] показал, что пропускная способность канала С с аддитивным белым гауссовым шумом (additive white Gaussian noise — AWGN) является функцией средней мощности принятого сигнала S, средней мощности шума N и ширины полосы пропускания W. Выражение для пропускной способности (теорема Шеннона-Хартли) можно записать следующим образом:
(9.2)
Если W измеряется в герцах, а логарифм берется по основанию 2, то пропускная способность будет иметь размерность бит/с. Теоретически (при использовании достаточно сложной схемы кодирования) информацию по каналу можно передавать с любой скоростью R (R < С) со сколь угодно малой вероятностью возникновения ошибки. Если же R> С, то кода, на основе которого можно добиться сколь угодно малой вероятности возникновения ошибки, не существует. В работе Шеннона показано, что величины S, N и W устанавливают пределы скорости передачи, а не вероятности появления ошибки. Шеннон [4] использовал уравнение (9.2) для графического представления доступных пределов производительности прикладных систем. Этот график, показанный на рис. 9.2, представляет нормированную пропускную способность канала CIW в бит/с/Гц как функцию отношения сигнал/шум в канале. График, представленный на рис. 9.3, изображает зависимость нормированной полосы пропускания канала WIC в бит/с/Гц от отношения сигнал/шум канала. Иногда рис. 9.3 используется как иллюстрация компррмисса между мощностью и полосой пропускания, присущего идеальному каналу. Однако это не совсем компромисс [5], поскольку мощность детектируемого шума пропорциональна полосе пропускания:
N = N0W.
Подставив выражение (9.3) в уравнение (9.2) и немного преобразовав последнее, получаем следующее:
(9.4)
Если битовая скорость передачи равна пропускной способности канаЛа (R = С), то с помощью тождества (3.30) можно записать следующее:
N0C N0 |
(9.5)
Гпакаа Q к'г^лппг^лмг'Гui ппм МГПППкЧПВЯНИИ МОЛУПЯУИИ И КОДИООВЭНИЯ
С/1/У(бит/с/Гц) Рис. 9.2. Зависимость нормированной пропускной способности канала от SNR канала |
W/С (Гц/бит/с) Рис. 9.3. Зависимость нормированной полосы пропускания канала от SNR канала |
На рис. 9.4 представлен график зависимости WIC от EJN0, описываемой формулой (9.6,в); асимптотическое поведение этой кривой при C/W0 (или W/C->°°) рассматривается в следующем разделе.
W/С (Гц/бит/с) Рис. 94. Зависимость нормированной полосы пропускания канала от EtJN0 |
9.4.1. Предел Шеннона
Существует нижнее предельное значение EtJN0, при котором ни при какой скорости передачи нельзя осуществить безошибочную передачу информации. С помощью соотношения
Iim (l + x),/j; = е х —> О
можно рассчитать граничное значение E,JNQ.
Пусть
Тогда, из уравнения (9.6,а),
£ = xlog2(l + xfx w
и
i=-^iog2a+x)1/x.
No
В пределе, при C/W -» 0, получаем
= —-— = 0,693 (9.7)
N0 log2 е
или, в децибелах,
Это значение EJN0 называется пределом Шеннона (Shannon limit). На рис. 9.1, а предел Шеннона — это кривая зависимости Рв от E,JNa при к->°о. При E,JN0 = -1,6 данная кривая скачкообразно изменяет свое значение с Рв = 1/2 на Рв = 0. В действительности достичь предела Шеннона невозможно, поскольку к возрастает неограниченно, а с ростом к возрастают требования к полосе пропускания и повышается сложность реализации системы. Работа Шеннона — это теоретическое доказательство существования кодов, которые могут улучшить Рв или снизить требуемое значение E)JNa от уровней некодированных двоичных схем модуляции до уровней, приближающихся к предельной кривой. При вероятности появления битовой ошибки 10~5 двоичная фазовая манипуляция (binary phase-shift-keying — BPSK) требует значения EJNg, равного 9,6 дБ (оптимум некодированной двоичной модуляции). Следовательно, в данном случае в работе Шеннона указано, что теоретически, за счет использования кодирования, производительность можно повысить на 11,2 дБ по сравнению с некодированной двоичной модуляцией. В настоящее время большую часть такого улучшения (почти 10 дБ) можно получить с помощью турбокодов (см. раздел 8.4). Оптимальную разработку системы можно наилучшим образом представить как поиск рациональных компромиссов среди различных ограничений и взаимно противоречивых требований. Компромиссы модуляции и кодирования, т.е. выбор конкретных схем модуляции и кодирования для наилучшего использования переданной мощности и ширины полосы, являются очень важными, поскольку имеется много причин для снижения мощности, а также существует необходимость экономии спектра радиочастот.
9.4.2. Энтропия
Для разработки системы связи с определенной способностью к обработке сообщений нужна метрика измерения объема передаваемой информации. Шеннон [3] ввел такую метрику Я, называемую энтропией источника сообщений (имеющего п возможных
выходных значений). Энтропия определяется как среднее количество информации, приходящееся на один выход источника, и выражается следующим образом:
П
Н = Pi log2 р, бит/выход источника. (9.8)
/ = 1
Здесь pi — вероятность i-ro выходного значения и Ер, = 1. Если сообщение двоичное или источник имеет только два возможных выходных значения с вероятностями р и q = (1 -р), выражение для энтропии примет следующий вид:
Н = -(р log2р + q log2q). (9.9)
Зависимость энтропии от р показана на рис. 9.5.
Вероятность, р Рис. 9.5. Зависимость энтропии от вероятности (два события) |
Величина Н имеет ряд особенностей.
1. Если логарифм в уравнении (9.8) берется по основанию 2, единица измерения Н — среднее число бит на событие. Здесь единица измерения бит — это мера количества информации, и ее не следует путать с термином “бит”, означающим “двоичная цифра” (binary digit — bit).
2. Сам термин “энтропия” имеет несколько неопределенный смысл, что вызвано наличием нескольких формулировок в статистической механике. Для информационного источника с двумя равновероятными состояниями (например, выбрасывание монеты правильной формы) из рис. 9.5 видно, что неопределенность исхода и, следовательно, среднее количество информации максимальны. Как
Г ПЯЙЭ Q к'пмпппммггу ппи иппппкяпвании МО ЛУЛ я ии и и кодиоования
только вероятности уходят от равновероятного состояния, среднее количество информации снижается. В пределе, когда одна из вероятностей обращается в нуль, Я также обращается в нуль. Результат известен до того, как произойдет событие, так что исход не несет в себе дополнительной информации.
3. Для иллюстрации связи между количеством информации и априорной вероятностью (если априорная вероятность сообщения на приемнике является нулем или единицей, сообщение можно не посылать) рассмотрим следующий пример. После девятимесячной беременности женщина оказывается в родильной палате. Муж с волнением ждет в приемной. Через некоторое время к нему подходит врач и говорит: “Примите мои поздравления, вы стали отцом”. Какую информацию отец получил от врача после медицинского исхода? Почти никакой; отец практически достоверно знал, что ребенок должен родиться. Если бы врач сказал, “вы стали отцом мальчика” или “вы стали отцом девочки”, он передал бы 1 бит информации, поскольку существует 50% вероятность того, что ребенок окажется девочкой или мальчиком.
Пример 9.2. Среднее количество информации в английском языке
а) Найдите среднее количество информации в бит/знак для английского языка, считая, что каждая из 26 букв алфавита появляется с равной вероятностью. Пробелы и знаки пунктуации не учитываются.
Дата добавления: 2015-10-28; просмотров: 96 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 45 страница | | | Основы теории принятая статистических решений 1051 47 страница |