Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Формула Шеннона для оценки количества информации и следствия из нее.

Медицинская система как управляющая система. Принцип обратной связи в управляющих системах. Место методов и средств информатики в медицинской управляющей системе. | Представление об объективной и субъективной информации, возможные определения понятия информации. Атрибуты информации. | Передача информации посредством сигналов. Виды сигналов. Дискретизация сигналов. | Правила построения логических выражений в СДНФ. | История компьютера. Принципы организации работы компьютера. Базовая архитектура компьютера. Поколения ЭЦВМ. | Основные семейства ПК и их отличительные особенности. Классическая архитектура ПК. | Назначение и характеристики процессора в составе аппаратных средств ПК. | Назначение и характеристики оперативной памяти в составе аппаратных средств ПК. | Специальные виды оперативной памяти в составе аппаратных средств ПК. Их назначение. | Типы и характеристики накопителей информации в составе аппаратных средств ПК. |


Читайте также:
  1. I. Обработка информации, полученной при обследовании
  2. I. Последствия завоевания
  3. III. Грехопадение и его последствия. Местонахождение рая 8.
  4. Iv) Оглашение полного имени заявителя и информации о состоянии ее здоровья в решении Апелляционного суда
  5. V. Расчет количества единиц лекарственной формы, которое надо принять больному за один прием.
  6. VI. Система показателей оценки доходности операций с краткосрочными облигациями
  7. VII. Критерии оценки заявок на участие в Конкурсе

Формула Шеннона (1948):

H = - Sumn(рi log2 рi)

H – среднее количество информации при многократном выборе
n – количество альтернатив
рi – вероятности альтернатив
i = 1….n

H = - log2 р
H – количество информации
при однократном выборе
р – вероятность выбранной альтернативы

В двоичном коде каждый двоичный символ несет 1 бит информации.
Кодовое слово длиной в H двоичных символов несет H бит информации
(при условии равной вероятности появления двоичных символов).
Общее количество разных кодовых слов
длиной H бит равно:
N = 2^H
H=8 N = 2^8 = 256
1 байт = 8 бит

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Кодовая таблица Unicode - используется 2 байта (16 бит) на каждый символ
Количество возможных символов равно 216, примерно 64000 символов

 

Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов.

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

Бит

Единицей измерения количества информации является бит –это наименьшая (элементарная) единица.

1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.

Байт

Байт – основная единица измерения количества информации.

Байтом называется последовательность из 8 битов. 1 символ – это 1 байт.

Производные единицы измерения количества информации

приставка КИЛО в информатике – это не 1000, а 1024, то есть 210.

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Для представления текстовой информации достаточно 256 различных символов. N = 2I, 256 = 2I, 2^8 = 2I,I = 8 битов Для кодирования каждого знака требуется количество информации, равное 8 битам. Для представления текста в памяти компьютера необходимо представить его в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный двоичный код в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255)

Для представления символов и соответствующих им кодов используется кодовая таблица. В качестве стандарта во всем мире принята таблица ASCII (American Standard Code for Information Interchange – Американский стандартный код для обмена информацией). Условно таблица разделена на части:

от 0 до 32 коды соответствуют операциям;

с 33 по 127 соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания;

со 128 по 255 являются национальными.

знаков В настоящее время существуют пять различных кодировок для русских букв (Windows, MS-DOS, КОИ-8, Mac, ISO), поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой. В последние годы широкое распространение получил новый международный стандарт кодирования текстовых символов Unicode, который отводит на каждый символ 2 байта (16 битов), что позволило закодировать многие алфавиты в одной таблице. N = 2I, N = 216, N = 65536

 

Принцип работы кодировки KOI-8R такой— каждый символ текста кодируется одним единственным байтом.


Дата добавления: 2015-08-17; просмотров: 96 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Дискретизация – разбиение аналогового сигнала на последовательность отдельных временных отсчетов и присвоение каждому отсчету конкретного значения в форме кода.| Алгебра логики. Элементарные логические операции. Таблицы истинности.

mybiblioteka.su - 2015-2024 год. (0.005 сек.)