Читайте также:
|
|
Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?
Решение. При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 — числу карт в колоде. Если i — количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:
2 i = 32.
Поскольку 32 = 25, то, следовательно, i = 5 бит.
На тему данной задачи можно предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так каккрасных и черных карт одинаковое количество).
Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде 4 масти и количество карт в них равные).
Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?
Решение. У этой задачи есть «подводный камень».
Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана — события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (25 = 32), а во второй — 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5x4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6x5 =30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.
Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й — из 30 номеров, 4-й — из 29. Значит, количество информации, которое несет2-й номер, находится из уравнения: 2 i =31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит. Для 3-го номера: 2 i = 30; i= 4,90689 бит. Для 4-го номера: 2 i = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации, чемпервое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».
Последовательность событий в этом случае не является независимой друг от друга (кроме первого). Это, как мы увидели, отражается в различии информативности сообщений о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.
В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита — N; информационный вес символа — i; число символов в тексте (объем текста) — К; количество информации, заключенной в тексте (информационный объем текста) — I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, килобайт, мегабайт, гигабайт.
Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т. е. допущение того, что появление любого символа в любой позиции текста — равновероятно. В задачах для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр — вероятность символа (р).
Пример 3. Два текста содержат одинаковое количество символов- Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?
Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:
1= K* i
Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i, для первого алфавита и i2 для второго алфавита:
2 i1 = 32, отсюда i1, — 5 бит;
2 i 2= 64, отсюда i 2 = 6 бит.
Следовательно, информационные объемы первого и второго текстов будут равны:
i, = К*5 бит, 12=К*6 бит.
Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.
Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?
Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз — на 8:
I = 1/512- 1024- 1024- 8 = 16384 бит.
Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:
i = I/K = 16384/1024 = 16 бит.
Отсюда следует, что размер (мощность) использованного алфавита равен 216 = 65 536 символов.
Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символьной информации в компьютере (кодировка Unicode).
Дата добавления: 2015-07-14; просмотров: 822 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Кибернетический (алфавитный) подход к измерению информации | | | Процесс хранения информации |