Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Примеры решения задан

Читайте также:
  1. I. Задания для самостоятельной работы
  2. II этап – знакомство с уравнением и овладение способом его решения.
  3. II. ЗАДАНИЯ К ВЫПОЛНЕНИЮ КОНТРОЛЬНОЙ РАБОТЫ
  4. III задание)
  5. III. Задания для самостоятельной работы по изучаемой теме
  6. III. Задания для самостоятельной работы по изучаемой теме
  7. III. Задания для самостоятельной работы по изучаемой теме

Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение. При случайном вытаскивании карт из перемешан­ной колоды ни одна из карт не имеет преимущества быть выбран­ной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вы­таскивания карты равна 32 — числу карт в колоде. Если i — коли­чество информации в сообщении о результате вытаскивания од­ной карты (дамы пик), то имеем уравнение:

2 i = 32.

Поскольку 32 = 25, то, следовательно, i = 5 бит.

На тему данной задачи можно предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так каккрасных и черных карт одинаковое количество).

Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в коло­де 4 масти и количество карт в них равные).

Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?

Решение. У этой задачи есть «подводный камень».

Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана — события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (25 = 32), а во второй — 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5x4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6x5 =30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.

Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара произ­водится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й — из 30 номе­ров, 4-й — из 29. Значит, количество информации, которое несет2-й номер, находится из уравнения: 2 i =31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит. Для 3-го номера: 2 i = 30; i= 4,90689 бит. Для 4-го номера: 2 i = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообще­ние несет больше информации, чемпервое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».

Последовательность событий в этом случае не является независи­мой друг от друга (кроме первого). Это, как мы увидели, отражается в различии информативности сообщений о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.

В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита — N; информационный вес символа — i; число символов в тексте (объем текста) — К; количество информации, заключенной в тексте (информационный объем текста) — I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, килобайт, мегабайт, гигабайт.

Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероят­ного алфавита, т. е. допущение того, что появление любого сим­вола в любой позиции текста — равновероятно. В задачах для углубленного уровня обучения используется более реальное пред­положение о неравновероятности символов. В таком случае, появ­ляется еще один параметр — вероятность символа (р).

Пример 3. Два текста содержат одинаковое количество симво­лов- Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается ко­личество информации в этих текстах?

Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информаци­онный вес одного символа:

1= K* i

Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только раз­ницей в информативности символов алфавита (i). Найдем i, для первого алфавита и i2 для второго алфавита:

2 i1 = 32, отсюда i1, — 5 бит;

2 i 2= 64, отсюда i 2 = 6 бит.

Следовательно, информационные объемы первого и второго текстов будут равны:

i, = К*5 бит, 12=К*6 бит.

Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.

Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз на 8:

I = 1/512- 1024- 1024- 8 = 16384 бит.

Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:

i = I/K = 16384/1024 = 16 бит.

Отсюда следует, что размер (мощность) использованного ал­фавита равен 216 = 65 536 символов.

Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символь­ной информации в компьютере (кодировка Unicode).


Дата добавления: 2015-07-14; просмотров: 822 | Нарушение авторских прав


Читайте в этой же книге: Содержательный подход к измерению информации | Процесс обработки информации | Процесс передачи информации |
<== предыдущая страница | следующая страница ==>
Кибернетический (алфавитный) подход к измерению информации| Процесс хранения информации

mybiblioteka.su - 2015-2024 год. (0.007 сек.)