Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

В персональных компьютерах



Читайте также:
  1. Глава 14. Защита персональных данных работника
  2. Глава 14. Защита персональных данных работника
  3. Глава 14. ЗАЩИТА ПЕРСОНАЛЬНЫХ ДАННЫХ РАБОТНИКА
  4. Персональные данные. Особенности обработки персональных данных оператором.
  5. Статья 86. Общие требования при обработке персональных данных работника и гарантии их защиты
  6. Статья 86. Общие требования при обработке персональных данных работника и гарантии их защиты

СЖАТИЕ ДАННЫХ

 

Понятие информации очень многогранно. Информатику можно классифицировать разными способами и разные науки делают это по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления. Для юристов информация бывает истинной и ложной, полной и неполной. Физика рассматривает информацию как сигналы и изучает законы ее распространения: оптические, звуковые, электромагнитные. Лингвистика изучает методы кодирования информации и выражения ее языковыми методами.

Для того, чтобы информацию сохранить, ее нужно закодировать. Мы привыкли кодировать информацию в виде символов различных алфавитов (русского, английского и т.д.) или иероглифов. Музыкальную информацию можно кодировать с помощью нот. Изображение можно кодировать совокупностью точек (пикселов) различной яркости.

В персональных компьютерах любая информация хранится в цифровой форме в виде двоичных кодов, записанных в разных файлах. При этом проблема нехватки памяти для хранения файлов в компьютере всегда была актуальной. Поэтому наряду с увеличением памяти ПК следует большое внимание уделять способам хранения информации в памяти ПК.

При этом важно уметь оценивать количество информации. Важным понятием, используемым при решении этого вопроса, является вероятность некоторого события.

Рассмотрим некоторый эксперимент, в результате которого могут произойти события Z1, Z2, …, Zm. Предположим, что было проведено N испытаний, при которых некоторое событие Zi произошло Ki раз. Относительное число случаев, при которых имело место это событие qi=Ki / N. Его называют частотой события Zi. При небольшом числе экспериментов N частота qi носит случайный характер. Однако практика показывает, что при увеличении числа экспериментов частота отдельных событий приближается к некоторому числу, которое может рассматриваться как вероятность события P(Zi), .

Первая попытка ввести количественную меру информации была сделана Хартли в 1927 году:

 

 

где m – число различных состояний информационной системы. За единицу информационной емкости принята двоичная единица – бит. При двоичном кодировании, когда вероятности появления символов 0 и 1 одинаковы, каждый единичный элемент содержит максимальное количество информации . Если же двоичные разряды имеют разные вероятности, то количество информации, содержащееся в каждом из них, уменьшается. В этом случае говорят, что в сигнале есть избыточность. Она еще более увеличивается, если события (символы) зависят друг от друга.

Другая мера количества информации предложена Шенноном:

где ; Pi – вероятность i – го события (символа). Эта формула выражает теорему Шеннона, определяющую количество информации, приходящееся на один символ (событие). Эта величина получила название энтропии. Если все m различных состояний источника равновероятны, т.е. Pi=1/m, то энтропия будет максимальна и равна:

 

 

Для равновероятных событий мера Хартли совпадает с мерой Шеннона.

Если события имеют разные вероятности, то количество информации, содержащееся в них уменьшается. В этом случае говорят, что в сигнале есть избыточность. В системах передачи данных избыточность могут искусственно увеличивать, повышая тем самым помехозащищенность кодирования данных. Противоположные задачи обычно приходится решать, когда стремятся, сокращая избыточность, уменьшить объем хранимой информации.

Обычно информация, содержащаяся в файле, хранится в памяти ПК побайтно, т.е. каждому символу файла отводится 1 байт в памяти ПК. При этом не принимается во внимание характер информации, содержащейся в файле. Это может быть текст какой-нибудь программы, а может быть таблица, содержащая множество одинаковых символов. В любом случае каждому символу будет отводиться свое место в памяти ПК.

Однако во многих случаях информация в файлах содержит большую избыточность, т.е. имея информацию о части файла, можно сказать, чему будет равна другая его часть. Для устранения такой избыточности используются специальные методы сжатия данных. На основе этих методов созданы различные программы, называемые архиваторами или упаковщиками, которые позволяют, как сжимать данные в искомом файле, так и восстанавливать исходное представление файла. Любые методы сжатия данных основаны на поиске в файле избыточной информации и последующем ее кодировании с целью получения минимального объема.

Существует несколько основных методов сжатия данных, которые с разными модификациями используются почти всеми архиваторами. Обычно архиваторы осуществляют сжатие информации сразу несколькими способами.

Выбор способа зависит от типа данных и обычно осуществляется архиватором для каждого конкретного случая.

 


Дата добавления: 2015-07-10; просмотров: 37 | Нарушение авторских прав






mybiblioteka.su - 2015-2024 год. (0.006 сек.)