Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Определение информации. Количество информации. Единицы измерения количества информации.

Читайте также:
  1. I.2 Определение понятия фразеологизма
  2. III. ОПРЕДЕЛЕНИЕ ЭФФЕКТИВНОСТИ ПРОИЗВОДСТВА
  3. N-ое количество лет спустя после эпилога
  4. А также общался с большим количеством арендодателей
  5. А) Определение расчетных усилий в ветвях колонны
  6. А) Определение требуемой площади поперечного сечения колонны.
  7. А. Определение ценной бумаги

В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в разных отраслях человеческой деятельности:

· в обиходе информацией называют любые данные или факты, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы.

Термин «информация» имеет корень «form» (форма), что разумно трактовать как «информирование — придание формы, вывод из состояния неопределенности, бесформенности», поэтому логично подходить к определению понятия «количество информации», исходя из того, что информацию, содержащуюся в сообщении, можно трактовать в смысле ее новизны или, иначе, уменьшения неопределенности знаний «приемника информации» об объекте.

Американский инженер Р. Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:

I=log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:

I=log2100≈6,644.

Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Другие примеры равновероятных сообщений: при бросании монеты - «выпала решка», «выпал орел»; на странице книги - «количество букв четное», «количество букв нечетное».

Существуют и другие подходы к определению количества информации. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями.

Можно рассмотреть обратную задачу: «Какое количество различных двоичных чисел N можно записать с помощью I двоичных разрядов?»

В общем случае количество различных двоичных чисел (кодов) можно определить по формуле:

N=2I

Данная формула является очень значимой, она связывает между собой количество возможных исходов N и количество информации I (является обратной формуле Хартли).

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bit — binary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений («орел—решка», «чет—нечет» и т. п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков 0 и 1, используемых для машинного представления данных и команд.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Поскольку бит — слишком мелкая единица измерения, на практике чаще применяется более крупная единица — байт, равная восьми битам. В частности, восемь бит требуется для того, чтобы закодировать любой из 256 символов основного компьютерного кода ASCII (256 = 28).

Используются также более крупные производные единицы информации:

Килобайт (Кбайт) = 1024 байт = 210 байт;

Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

Терабайт (Тбайт) = 1024 Гбайт = 240 байт;

Петабайт (Пбайт) = 1024 Тбайт = 250 байт;

Экзобайт = 1018 Мбайт и пр.

Для описания скорости передачи данных можно использовать термин бод. Число бод равно количеству значащих изменений сигнала (потенциала, фазы, частоты), происходящих в секунду. Первоначально бод использовался в телеграфии. Для двоичных сигналов нередко принимают, что бод равен биту в секунду, например, 1200 бод = 1200 бит/с. Однако единого мнения о правильности использования этого термина нет, особенно при высоких скоростях, где число битов в секунду не совпадает с числом бод.


Дата добавления: 2015-09-05; просмотров: 301 | Нарушение авторских прав


Читайте в этой же книге: Тема 1.2. Общая характеристика и классификация технических средств информатизации. | Классификация ТСИ. | Важнейшие этапы истории вычислительной техники | Устройство и принцип действия ЭВМ | Классификация ЭВМ | Основные характеристики спецификаций ПК | Материнские платы | Основные типоразмеры материнских плат различных стандартов | Структура и стандарты шин ПК | Стандарты шин ПК |
<== предыдущая страница | следующая страница ==>
Тема 1.1. Информация.| Способы представления информации для ввода в ЭВМ.

mybiblioteka.su - 2015-2024 год. (0.006 сек.)