Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

10) Цель и суть любого кодирования - представление сообщений в форме, удобной для разнообразной последующей обработки, в том числе для передачи, хранения, выполнения арифметических и логических



10) Цель и суть любого кодирования - представление сообщений в форме, удобной для разнообразной последующей обработки, в том числе для передачи, хранения, выполнения арифметических и логических операций. Однако в информатике кодированием принято называть отображение сообщений кодовыми словами. При этом сообщения сами могут быть в форме кодовых слов.

В технических системах кодирование используется для следующих конкретных целей:

1) обеспечения построения простой и надежной аппаратуры, предназначенной для обработки закодированных сообщений;

2) защиты сообщений от помех (при их обработке, передаче по каналам связи, хранении); для этого используется помехоустойчивое кодирование;

3) компрессии или сжатия информации, т.е. для компактного представления данных; в этом случае применяется эффективное (оптимальное) кодирование;

4) сжатия информации с последующей защитой ее от помех; при этом используется двойное последовательное кодирование;

5) обнаружения и исправления ошибок при выполнении арифметико-логических операций; в этих случаях применяются арифметические коды

 

11) Рассмотрим идею помехоустойчивого кодирования на примере кодирования сообщений словами равной длины, в которых фиксированы позиции информационных и дополнительных разрядов. Для этих целей используются так называемые равномерные разделимые блоковые коды.

Кодирующее устройство (шифратор) осуществляет следующее преобразование над входным безызбыточным - разрядным кодовым словом, которое несет только полезную информацию. Кодер наращивает длину слова, увеличивая число разрядов кодового слова до п > к, при этом появляются дополнительные (избыточные, проверочные или контрольные) разряды, кроме так называемых информационных (к) разрядов, несущих полезную информацию. Таким образом, кодовое слово на выходе кодера содержит п - к = т избыточных разрядов. Содержимое дополнительных (избыточных) разрядов кодер определяет в соответствии с алгоритмом кодирования на основе содержимого информационных разрядов. Избыточная информация в помехоустойчивом кодовом слове представлена содержимым определенных информационных и дополнительных разрядов. Сама же избыточная информация - это, по существу, алгоритм формирования избыточных разрядов, т.е. алгоритм кодирования, который известен дешифратору (декодеру). То есть для дешифратора данный алгоритм кодирования является избыточной информацией - это то постоянное преобразование, что сохраняется независимо от того, какие кодовые слова передаются от источника к приемнику. Используя эту избыточную информацию, дешифратор принимает очередное слово и проверяет содержимое всех его разрядов на соответствие данному алгоритму кодирования. Если данное слово не удовлетворяет используемому алгоритму кодирования, то дешифратор делает вывод об обнаружении ошибки и в зависимости от того, "в какой степени" это соответствие не выполняется, может опознавать и исправлять некоторые ошибки.



Кратко это можно выразить следующим образом: идея помехоустойчивого кодирования состоит во внесении кодером избыточной информации в виде алгоритма (правил) кодирования с помощью дополнительных разрядов помехоустойчивого кодового слова с последующей проверкой декодером этого слова на соответствие принятому алгоритму кодирования

 

12) Коды бывают: обнаруживающие и корректирующие. Корректирующие делятся на блоковые и непрерывные. При кодировании блоками, каждое исходное сообщение из массива данных замещается блоком или кодовым словом. При кодировании непрерывным кодом, новый текст не содержит слов, там кодируется вся цепочка. Блоковые коды разделяются на: Равномерные (все кодовые слова для разных сообщений имеют одинаковую длину) и неравномерные (длина слов различна).

 

 

13) Кодовое слово может передаваться от шифратора к дешифратору с ошибкой и без нее. Таким образом, возможны два варианта передачи кодового слова: правильная и неправильная. Число вариантов правильной передачи, когда разрешенное кодовое слово, проходя путь от кодера к декодеру, трансформируется само в себя, равно 2к.

Существуют также два варианта неправильной передачи:

1) разрешенное кодовое слово на пути от кодера к декодеру трансформируется в иное разрешенное слово. В этих случаях декодер, проверяя структуру и содержимое принятого кодового слова на соответствие данному алгоритму кодирования, вынужден принять решение, что кодовое слово правильно. При этом дешифратор не только не исправит эту ошибку, но даже и не обнаружит ее. Так как каждое разрешенное слово может трансформироваться в любое другое разрешенное слово, то число вариантов такой передачи 2к (2к - 1).

2) разрешенное кодовое слово трансформируется в запрещенное. В таких случаях дешифратор способен обнаружить ошибку, а в некоторых - и исправить. Так как каждое разрешенное слово может трансформироваться в любое запрещенное слово (число которых 2n - 2к), то число вариантов такой ошибочной передачи 2k(2n - 2k).

Суммируя числа разных вариантов передачи, получим общее число вариантов передачи

2k*2n = 2k + 2k(2k- 1) + 2k(2n-2k).

 

14) 1-й способ: разбиение всех запрещенных слов на непересекающиеся подмножества по принципу принадлежности (близости) запрещенного слова к разрешенному кодовому слову. При этом "вокруг" каждого разрешенного кодового слова группируются такие запрещенные слова, которые "ближе" к нему, чем к другим разрешенным словам (рис. 2.3). В этом случае в качестве разрешенных кодовых слов следует выбирать такие, которые составляют множество элементов, удаленных друг от друга на расстояние не меньше некоторой величины (называемой минимальным хэмминговым расстоянием).

При таком способе разбиения дешифратор выносит решение в пользу того разрешенного слова, расстояние от которого до принятого слова меньше, чем до других разрешенных слов. Количество непересекающихся подмножеств запрещенных кодовых слов при этом равно числу разрешенных слов 2k.

2 -й способ: разбиение по принципу принадлежности запрещенного кодового слова к вектору ошибки или к классу смежности. При таком разбиении декодер опознает не переданное ему слово, а вектор ошибки, которой оно оказалось поражено. Для этого декодер, учитывая содержимое избыточных и информационных разрядов, проверяет принятое слово на соответствие данному алгоритму кодирования и в результате вычисляет опознаватель (синдром) ошибки, который указывает на принадлежность принятого слова к одному из непересекающихся подмножеств запрещенных слов (классов смежности), "порожденных" определенным вектором ошибки. В такой системе кодер должен по определенным правилам кодирования определять содержимое избыточных разрядов на основе известного содержимого информационных разрядов. Эти правила или алгоритм кодирования представляют собой систему уравнений, в которых данными (известными величинами) являются значения информационных разрядов. Для определения содержимого каждого избыточного разряда применяется свое уравнение. Дешифратор проверяет на истинность каждое из этих уравнений, проверка дает либо "0", либо "1". Проверки всех уравнений дают множество нулей и единиц, называемое опознавателем ошибки. Если опознаватель состоит только из одних нулей, декодер делает вывод об отсутствии ошибки, иначе, по виду ненулевого опознавателя, декодер может определить тип ошибки, так как опознаватель указывает на принадлежность принятого слова подмножеству запрещенных слов, порожденных данным вектором ошибки.

 

15) Минимальное Хемминговое расстояние задает такое множество разрешенных слов, для любой пары в котором простое кодовое слово расстояние не меньше заданной величины. Величина: Вокруг каждого разрешенного кодового слова группируются такие запрещенные слова, которые ближе к нему, чем к другим разрешенным словам. Расстояние это определятся минимальным Хемминговым расстоянием. (пример – суммирование любых двоичных чисел по модулю 2)

 

16) Вектор ошибки – двоичное псевдослово, содержащее «1» в тех разрядах, содержимое которых искажено помехами в данном помехоустойчивом кодовом слове. Ошибки различают – коррелированные (изменяется помехой не только в одном разряде, ошибки идут потоком) и некоррелированные (смена содержимого в каком-то разряде не влияет на искажение содержимого в других словах).

 

17) 2k-1>=Q – определяется число информационных разрядов; 2n-k-1>=n – определяется число разрядов помехоустойчивого слова; n-k=m - определяется число избыточных разрядов; – определяется граница Хемминга. Дополнительных разрядов в кодовом слове должно быть столько, чтобы породить нужное число запрещенных слов или классов смежности, а именно 2n-k-1. Число классов смежности должно быть не меньше, чем число исправляемых ошибок, поэтому – 2n-k-1>=n

 

19) В общем случае целью и сутью любой дискретизации является представление исходного непрерывного (аналогового) сигнала дискретно-непрерывным или дискретным сигналом.

 

20) Дискретизировать функцию по времени - значит, исключить из рассмотрения множество значений этой функции в течение некоторых заданных интервалов времени. **

 

Рис. 1.1. Непрерывная функция непрерывного аргумента

Рис. 1.2. Гребенчатая или решетчатая функция (непрерывная функция дискретного аргумента)

Рис 1.З. Дискретная функция непрерывного аргумента

Рис. 1.4. Дискретная функция дискретного аргумента

В соответствии с данными представлениями различают сигналы следующих видов:

-непрерывные или аналоговые сигналы (функция на рис. 1.1);

-дискретно-непрерывные сигналы (функции на рис. 1.2 и 1.3);

-дискретные сигналы (функция на рис. 1,4)

Заметим, что дискретные сигналы на рис.1.4 не являются числами; это импульсы с конечным числом амплитуд.

 

21)

Нормированные функции отсчетов для разных отсчетных моментов не отличаются по форме, кроме смещения по оси времени (рис. 1.16). Каждая функция отсчетов равняется нулю для всех отсчетных моментов времени, кроме данного.


Данное преобразование, называемое рядом Котельникова, позволяет абсолютно Точно отображать сложный непрерывный сигнал последовательностью бесконечно узких импульсов, следующих с равным интервалом (шагом дискретизации), величина которого определяется в виде

 


22)

Результат суммирования постоянной составляющей и двух первых гармоник представлен на рис. 1.15.

 

23) Квантованием, по уровню называют дискретизацию множества значений непрерывного сигнала по уровню, то есть по амплитуде параметра. Идея квантования по уровню заключается в следующем. Весь диапазон возможных изменений сигнала (функции) разбивается на N различимых величин - уровней квантования. В результате квантования сигнала каждое из его значений данного интервала округляется до некоторого уровня

Для обработки непрерывного сигнала на цифровой машине необходимо предварительно преобразовать его в последовательность чисел с помощью аналого - цифрового преобразователя (АЦП). Другое название АЦП - преобразователь "аналог-код" В таком преобразователе осуществляются следующие действия:

-квантование сигнала по уровню (по амплитуде);

-дискретизация сигнала по времени;

-преобразование дискретного сигнала в двоичное число;

 

24) 1-й способ квантования - путем соотнесения исходного значения сигнала с ближайшим значением уровня.

В этом случае квантование происходит по методу соотнесения с ближайшим значением уровня. Этот способ квантования аналогичен округлению чисел до ближайшего целого. При таком способе вместо исходного непрерывного сигнала мы получим квантованный сигнал, представленный временной диаграммой на рис.1.5.


f(t) - исходный непрерывный сигнал; f*(t) - квантованный сигнал;

ft, fi+1 - значения соседних порогов квантования (пунктир);

∆ft - шаг квантования, ∆ fi =fi+1 - fi;

Таким образом, очевидно, что в Процессе квантования неизбежно возникает принципиальная или методическая ошибка квантования - шум квантования, ее величина для момента времени t определяется в виде ∆f(t)=f(t)-f*(t)

2-й способ квантования - путем соотнесения исходного значения с ближайшим "снизу" значением уровня. В этом случае i-е пороговое значение совпадает со значением (i+1)-го уровня. Данный способ аналогичен округлению числа до ближайшего целого снизу.


Ошибка квантования всегда положительна (∆f(t) > 0) и не превышает величину шага квантования (∆f(t) < ∆f).

3-й способ квантования - путем соотнесения исходного значения с ближайшим "сверху" значением уровня. Пороги и уровни совпадают по номерам и значениям. Шум квантования всегда отрицательный (∆f(t)< 0) и не превышает величину шага квантования. Этот способ аналогичен округлению числа до ближайшего целого сверху.

Равномерным квантованием называется такое квантование, при котором шаг квантования есть постоянная величина. В большинстве случаев применяется равномерное квантование.

Из трех способов квантования первый дает минимальную среднюю ошибку квантования при одном и том же шаге квантования, поэтому на практике часто используется именно этот способ.

 

 

25) Различают следующие две модели помех (два типа помех):

а) аддитивные помехи формируют смесь сигнала с помехой путем алгебраического суммирования их амплитуд:

fcn(t)=f*(t)+-fn(t), где f„(t) - амплитуда помехи;

б) мультипликативные помехи формируют смесь сигнала с помехой путем перемножения их значений:

fcn(t)=k*f*(t)*fn(t); где K - масштабный коэффициент.

Однако бесконечное уменьшение шага квантования физически невозможно, а формально не имеет смысла, так как мы опять возвращаемся к непрерывному Сигналу. Уменьшать шаг до бесконечности невозможно также из-за влияния помех. Сообщения по мере передачи по каналам связи или по мере хранения в памяти искажаются под воздействием помех, поэтому на приемной стороне или при считывании сигнала должен находиться еще один квантователь. Этот квантователь, как и исходный квантователь сигналов, для опознавания сигнала должен соотносить реальный сигнал с возможными значениями уровней. Для некоторых значений это I соответствие может быть неправильным и на приемной стороне могут быть ложные восприятия соседних уровней. Увеличение шага квантования в системе квантования, при неизменном уровне помех, приводит к подавлению помех, поэтому самый простой способ защиты квантованного сигнала от помех - увеличение шага квантования. Однако при этом мы увеличиваем шум квантования, т.е. вносим погрешность за счет грубого квантования.

 

26) Контур управления - это контур с обратной связью, состоящий из управляю­щей, управляемой систем и цепей управления (рис. 1.1).

Таким образом, для определения роли систем в конкретном контуре управле­ния В-С-А-Д необходимо определить внешнюю по отношению к данному конту­ру и связанную с ним систему Е (рис. 1.1). Если воздействие системы Е на кон­тур В-С-А-Д основано на том, что система Е воздействует на систему А, а воз­действие контура на систему Е состоит в воздействии В на Е, то в этом случае система А является управляющей, В - управляемой, а С и Д - цепи управления.

При этом процесс управления можно рассматривать как последовательность изменений: изменений на выходе управляемой системы В, затем - на входе управляющей системы А, далее - на выходе А и на входе В и т.д.

Проблема управления сводится к поиску ответа на вопрос, какой процесс должен происходить между входом и выходом управляющей системы, чтобы за­данный процесс произошел между входом и выходом управляемой системы.

Управляющая система - это система, воздействие которой приводит к тре­буемому изменению в другой системе.

Управляемая система - это система, в которой требуемые изменения вызы­ваются воздействием другой системы.

Цепь управления - это система, через которую одна система воздействует на другую.

 

27) Источник (воздействия) - это система, воздействующая на другую систему контура управления.

Для цепи С источником является управляемая система В, а для цепи Д - управляющая система А.

Приемник (воздействия) - это система, на которую воздействует другая сис­тема контура управления.

Для цепи С приёмником является управляющая система А, а для цепи Д - управляемая система В.

Из этих определений следует, что цепь управления начинаемся на выходе ис­точника и заканчивается на входе приёмника

Сообщение - это физическое состояние, определённым образом отличающее­ся от других, физических состояний в цепи управления.

Подчеркнём, что отличающихся физических состояний в природе бесчислен­ное множество, однако сообщениями являются лишь те из них, которые относят­ся к одной и той же цепи управления конкретного контура управления.

И – источник воздействия, П – приемник воздействия, <x,y,z> – цепь управления

Чтобы изменения на выходе источника приводили к изменениям на входе при­ёмника в цепи управления должен протекать некоторый физический процесс. Бу­дем считать, что физический процесс в цепи управления складывается из опреде­ленного числа (различимых) физических состояний.

Так в процессе управления определенные структурные изменения в управ­ляющей системе обеспечивают требуемые изменения в управляемой системе. Для осуществления этих структурных изменений необходимо затрачивать энергию.

Процесс выполнения работы (рабочий процесс) основан преимущественно на энергоматериальных изменениях, т.е. на затратах энергии и вещества. Здесь су­щественно наличие физических сил, изменяющих физические состояния.

 

30) Кодовая ассоциация - это ассоциация, состоящая из сообщений продольного множества.

В цепи управления, изображенной на рис. 1.7, кодовыми ассоциациями явля­ются, например, следующие:{x1,y1}, {y2,z2}, {х3, z3} и т.п.

Рис. 1.7 Коды в цепи управления

Код - это преобразование одного сообщения кодовой ассоциации в другое со­общение той же ассоциации.

Обозначать коды будем символом К с индексами, указывающими направление и место их действия. На рис. стрелками отмечены некоторые коды данной цепи управления.

 

 

28) Будем различать поперечное множество сообщений, размещающихся в про­извольном месте цепи управления, и продольное множество сообщений, воз­никших из других сообщений или из которых возникли другие сообщения, при­чём каждое из сообщений этого множества принадлежит к различным поперечных множествам.

Рис. 1.4. Сообщения в цепи управления: ИСТОЧНИК - источник воздейст­вия; ПРИЕМНИК - приёмник воздействия; Х= {x1,x2,x3} - оригиналы - одно из поперечных множеств сообщений; У - промежуточные сообщения; Z - образы;{x1,y1,z1} - одно из продольных множеств сообщений

С практической точки зрения следует различать «активные» и «пассивные» сообщения.

Активные сообщения или явления существуют только при наличии притока энергии и сами могут порождать другие сообщения.

Пассивные сообщения или следы явлений (память о явлениях) существуют без притока энергии, но сами не могут порождать другие сообщения.

Рассмотрим для примера цепь управле­ния, имеющую на одном конце в качестве источника звучащий музыкальный ин­струмент, а на другом человека, слушающего данные звуки в другое время. Зву­ковые волны - оригиналы - порождают другие активные промежуточные сооб­щения, которые в конечном счёте преобразуются в магнитофоне при их записи в пассивные сообщения, размещенные на магнитной ленте. Для последующего прослушивания, т.е. для преобразования пассивных сообщений опять в активные (звуки - образы), необходима энергия, чтобы привести в движение магнитную ленту. Если при этом скорость протяжки ленты отличается от её скорости в мо­мент записи, то воспроизводимые звуки - образы - будут отличаться от оригина­лов.

 

31) Нетривиальный код - это код, являющийся нетривиальным преобразованием.

Об­ратный операционный код - это операционное преобразование, обратное дан­ному операционному коду.

На практике тождественный код имеет место, когда переданное сообщение од­новременно является и принятым. Например, при отправлении письма по почте. Равнозначный код будет, если вместо письма доставляется его копия.

Основной код — это операционный код, общий для всех ассоциаций, у которых первичные сообщения принадлежат одному поперечному множеству сообщений, а вторичные сообщения - другому поперечному множеству сообщений. Основным кодом является, например, любая математическая операция, а об­ратным основным кодом - обратная к ней. Множества кодовых ассоциаций, сформированных такими операциями, приведены в таблицах: квадратов чисел и их квадратных корней, синусов и их главных углов и т.п. В первой колонке таких таблиц обычно размещены оригиналы, а во второй образы.

Ассоциационные коды пригодны пока постоянны и становятся бесполезны, если отдельным оригиналам перестают соответствовать образы, созданные на их основе.

Результирующий код - это результирующее преобразование последователь­ных кодов в кодовой цепи.

 

32) Основной код — это операционный код, общий для всех ассоциаций, у которых первичные сообщения принадлежат одному поперечному множеству сообщений, а вторичные сообщения - другому поперечному множеству сообщений.

Основной код можно представить формулой Kxy х=у, соответственно обрат­ный основной код записывается в вида Кyx у = х, где х и у соответственные сооб­щения любой кодовой ассоциации из двух рассматриваемых поперечных мно­жеств.

Преимущество перед множеством ассоциационных кодов имеет лишь множе­ство одинаковых операционных кодов, т.е. когда есть основной код. Преимуще­ство основного кода максимально, когда он относится ко всем сообщениям неко­торого бесконечного множества сообщений. Это преимущество, очевидно, объ­ясняется тем, что основной код компактно связывает большие множества сооб­щений.

 

 

29) Ассоциация сообщений - это неупорядоченная пара сообщений, взятых из продольного или поперечного множества сообщений в процессе управления.

Преобразование - это процесс, в результате которого одно из сообщений ас­социации превращается в другое сообщение той же ассоциации.


Преобразования можно различать в зависимости от сходства или отличия первичного и вторичного сообщений.

Нетривиальное преобразование такое, в результате которого из первичного сообщения получается отличное от него вторичное сообщение.

Тривиальное преобразование такое, в результате которого вторичное сообще­ние не отличается от первичного.

Тождественное преобразование - это такое тривиальное преобразование, при котором первичное и вторичное сообщения являются одним и тем не сообщени­ем.

Равнозначное преобразование - это такое тривиальное преобразование, при котором первичное и вторичное сообщения являются отдельными, но одинако­выми сообщениями.

Обратное преобразование такое, которое преобразует вторичное сообщение в первичное.

Отсюда ясно также, что преобразование является сложным понятием. Выделим его элементы.

Операция - это один из элементарных процессов, на которых основывается преобразование.

Род операции - это качественная характеристика операции.

Параметр операции - это количественная характеристика операции.

Операционное преобразование - это преобразование, описываемое операция­ми, которым подвергается первичное сообщение ассоциации.

Основное преобразование - это такое операционное преобразование, приме­нение которого к исходному сообщению любой ассоциации в некотором множе­стве ассоциаций даёт вторичное сообщение той же ассоциации.

Обратное основное преобразование - это такое операционное преобразова­ние, применение которого ко вторичному сообщению любой ассоциации, к кото­рой относится данное основное преобразование, даёт первичное сообщение той же ассоциации.

Обратный род операции - это такой род операции, при замене которым рода данной операции возникает операция, обратная данной.

Ассоциационное преобразование - это преобразование, характеризующееся тем, что применение его к первичному сообщению ассоциации даёт в результате вторичное сообщение той же ассоциации.

Результирующее преобразование - это преобразование, состоящее из преоб­разований последовательных ассоциаций цепи сообщений, причём вторичное со­общение, будучи результатом предыдущего преобразования, является первичным сообщением для следующего преобразования.

Например, в операционном преобразовании 3а + 2 = b две операции: «умноже­ние на 3», в которой род операций - умножение, а её параметр - 3, и «прибавле­ние 2», в которой род операции - сложение, а её параметр - 2.

Для ассоциации а = 1, b = 3 можно выделить следующие преобразования:

a+2=b, 2a+1=b, 3a=b, 4a-1=b

 

33) Множествами ассоциационных кодов являются физические таблицы, прейску­ранты, телефонные справочники, словари, в которых установлены соответствия между веществами и их свойствами, товарам и их ценами, фамилиями абонентов и номерами их телефонов, словами разных языков.

Ассоциационные коды пригодны, пока постоянны и становятся бесполезны, если отдельным оригиналам перестают соответствовать образы, созданные на их основе. Эта особенность ассоциационных кодов ощущаются, например, когда те­лефонная станция изменяет некоторые телефонные номера не предупреждая абонентов, когда объявление о проведении или отмене намеченного ранее собра­ния не доводится вовремя до всех членов коллектива.

Если основной код сложный, т.е. состоит из многих операций, или при наличии в нём сложных операций, при которых значения функции определяются с помощью представляющего её ряда, вместо вычислений удобнее пользоваться таблицами, а в цифровых вычислительных устройствах - массивами данных.

Чем больше множество ассоциационных кодов, тем труднее им пользоваться. Затруднен при этом поиск нужной ассоциации, а не нахождение в ней образа по оригиналу. Так при поиске в картотеке требующейся информации трудно нахо­дить необходимую карточку, а не считывать её содержимое. Возможными путя­ми ускорения и облегчения пользованием большим множеством разных ассоциа­ционных кодов является лучшая классификация и систематизация кодов и меха­низация их поиска. Поэтому всё большее распространение находят информационно-поисковые системы на базе быстродействующих ЦВМ.

34) Информационная ассоциация - это ассоциация, состоящая из сообщений по­перечного множества.

В цепи управления, изображённой на рис. 1.8., информационными ассоциа­циями являются, например, следующие: {x1,x2}, {y1,y2}, {z1,z2} и т.п.

Рис. 1.8 Информации в цепи управления

Информация - это преобразование одного сообщения информационной ассо­циации в другое сообщение той же ассоциации.

Обозначать информации будем символом J с индексами, указывающими на первичное и вторичное сообщения, т.е. на направление и место действия этих преобразований.

Из определения следует, что информация характеризует пару сообщений из поперечного их множества как преобразование, которому следует подвергнуть одно сообщение этой пары (ассоциации), чтобы получить другое сообщение той же пары. В этом смысле можно говорить, что пара сообщений — информационная ассоциация — содержит информацию.

 

35) Информационная цепь - это цепь, образованная из сообщений поперечного множества сообщений.

На рис. 1.8 информационная цепь образована, например, упорядоченным множеством сообщений <x1,x2,x3>.

В зависимости от места расположения в цепи управления можно различать цепь оригиналов, цепь сообщений и цепь образов.

С формальной точки зрения очерёдность сообщений в информационной цепи может быть произвольной. Однако для правильного информирования в процессе управления необходимо, чтобы в различных поперечных множествах сообщений одной и той же цепи управления (в цепи оригиналов, в цепях промежуточных со­общений и цепи образов) соблюдался один и тот же порядок, т.е. сообщения раз­ных информационных цепей в определённой цепи управления должны быть упорядочены одинаково.

Например, порядок действия операций в решаемом уравнении должен соответствовать последовательности операций в программе для ЦВМ и тот же порядок должен быть при их выполнении; последовательность реальных событий должна соответствовать последовательности изображений на кадрах кинохроники и т.п.

 

36) Нетривиальная информация - это информация, соответствующая нетриви­альному преобразованию.

Информация, обратная к данной - обратная информа­ция — это информация, соответствующая такому преобразовании, применение которого ко вторичному сообщению даёт первичное сообщение той же ассоциа­ции.

Тривиальная информация содержится в ассоциации неразличимых сообщений.

При этом тождественность или одинаковость сообщений на практике является следствием их неразличимости, откуда вытекает, что число разных информации, содержащихся во множествах сообщений, определяется не только реальными фактами, но и разрешающей способностью приёмника, т.е. получаемая информа­ция может быть в определённой степени субъективна.

Равнозначная информация получается, например, когда последовательно на­блюдаются два неразличимых предмета (например, два последовательных кино­кадра с одним и тем же изображением). Тождественная информация получается, когда последовательно наблюдается один и тот же предмет (например, одна и та же фотография).

Результирующая информация - это результирующее преобразование после­довательных информаций в информационной цепи.

Основная информация - это операционная информация, одинаковая для всех последовательных ассоциаций информационной цепи.

 

37) Основная информация - это операционная информация, одинаковая для всех последовательных ассоциаций информационной цепи.

В очень коротких информационных цепях может оказаться много основных информации. Так зачастую малое число фактов удаётся увязать с помощью мно­гих разных гипотез. С ростом числа сообщений в информационной цепи число основных информации уменьшается.

Пользование основной информацией настолько удобно, что её пытают­ся найти хотя бы для небольших множеств сообщений или даже предпочитают иметь приближенную информацию. Такой информацией, например, является аппроксимирующая зависимость для группы экспериментальных точек. Стремление получить основную информацию приводит к тому, что ее пытаются найти даже там, где её нет. Например, когда независимые данные связываются на графике такими кривыми, чтобы они имели хоть какой-нибудь «Смысл».

38) Информирование — это преобразование информации, содержащихся в цепи оригиналов, в информации цепи образов.

Из определения следует, что для осуществления информирования в цепи управления должно быть не менее четырёх сообщений - двух оригиналов и двух образов; в этом простейшем случае информирование представляет собой преоб­разование информации ассоциации (пары) оригиналов в информацию ассоциации образов.

Рис. 1.10. Информирование в общем виде

Симуляционное информирование - это такое информирование, при которой множество образов содержит больше нетривиальных информации, чем их содер­жит множество оригиналов; в подобных ситуациях происходит неправильное информирование из-за того, что приёмник получает больше информаций, чем от­правляет их источник.

Диссимуляционное информирование - это такое информирование, при кото­ром множество образов содержит меньше нетривиальных информации, чем их содержит множество оригиналов; в таких ситуациях происходит неправильное информирование потому, что приёмник получает меньше информации, чем от­правляет их источник.

Конфузионное информирование - это информирование, образованное из симуляционного и диссимуляционного информирований; в подобных случаях часть отправленных источником информации теряется в цепи управления, а информа­ция, полученная приёмником искажена из-за неполной информации источника, а также из-за добавления части информации в цепи управления.

 

39) Трансинформирование или правильное информирование - это такое инфор­мирование, в котором информация в множестве образов такая же как в множест­ве оригиналов; из рис. 1.10. видно, что в этом случае Jx12 = Jz12

Следует различать тривиальное трансинформирование, которое осуществля­ется соответственно с помощью тривиальных кодов, а также его разновидности - тождественное и равнозначное трансинформирования, которые осуществля­ются соответственно с помощью тождественных и равнозначных кодов.

На практике тождественное трансинформирование имеет место, например, в ситуации, при которой положение кисти или пальцев оператора преобразуются в такие же положения ручки переключателя, или при чтении текста, который явля­ется одновременно и множеством оригиналов и множеством воспринимаемых образов.

Равнозначным будет, например, трансинформирование, имеющее место из-за неосведомлённости при пользовании фальшивыми деньгами по их прямому на­значению. В отличие от этого случая, для множества разных систем тиражирова­ние (размножение) является широко распространённой и полезной операцией, при которой копии используются для равнозначного трансинформирования.

 

40) Псевдоинформирование - это такое информирование, при котором некоторые сообщения являются общими для нескольких кодовых цепей, т.е. это информи­рование с ветвящимися кодовыми цепями (рис. 1.12.)

Рис. 1.12. Псевдоинформирование: а - диссимуляционное, б - симуляционное, в и г-конфузионное; Jx12-псевдоинформация;

В зависимости от числа информации, содержащихся в множествах оригиналов и образов будем различать диссимуляционное, симуляционное и конфузионное рсевдоинформирования (рис. 1.12а, б, в, г).

Псевдоинформация содержится в ассоциации образов в результате псевдоин- формирювания. На рис. 1.12а символом JvХ2 обозначена диссимуляционная псевдоинформация. Кроме этого следует различать симуляционную псевдоин­формацию.

Симуляционное псевдоинформирование имеет место; например: когда «двоит­ся в глазах», когда образуется эхо, сопровождающееся повторением одного и то­го же звука, когда один и тот же человек воспринимается другим в разных ситуациях как несколько разных людей, когда одна и та же ве­личина при измерении прибором в разное время воспринимается как различные величины и т.п.

Диссимуляционное псевдоинформирование бывает в случаях обратных приве­дённым. Например: когда из-за малой чувствительности прибора близкие, но разные величины воспринимаются как одна и та же, разные символы одного раз­мера воспринимаются человеком с ослабленным зрением как одинаковые тёмные пятна.

Конфузионное псевдоинформирование бывает при сочетании рассмотренных ситуаций. Например, если одни имеющиеся в цепях управления приборы, датчи­ки, под действием реальных сообщений мно­жат несуществующие, а другие, напротив, воспринимают разные данные как одинаковые

41) Дезинформирование - это такое информирование, в котором все кодовые це­пи являются разделёнными, но некоторые из них неполны (не заполнены) (рис. 1.13).

Следует различать диссимуляционное, симуляционное и конфузионное псев­доинформирования (рис. 1.13 а, б, в, г).

Рис. 1.13. Дезинформирование: а - симуляционное, б - диссимуляционное, в, г - конфузионное; Jvl3, Jv23 – дезинформации

Примерами симуляционного дезинформирования являются: ложное обнаруже­ние или опознавание объекта обзорно-поисковой системой из-за несовершенства её действия, ошибочное срабатывание регуляторов, предохранителей, отдельных блоков и т.п. в технических системах. Симуляционное дезинформирование при­меняется в целях пропаганды, когда сообщается о несуществующих событиях («газетные или радио - утки»), а также имеет широкое распространение в искус­стве и литературе

Диссимуляционное дезинформирование в целях пропаганды нашло особенно широкое применение в связи с развитием средств массовой информации, кото­рые, с одной стороны, позволяют быстро доводить определённые факты сразу до большого числа людей, а с другой стороны, не позволяют отдельному человеку по своему желанию оперативно получить полную картину событий.

В целях пропаганды и рекламы широко используется также, конфузионное де­зинформирование. При этом одни факты сообщаются, другие - умалчиваются, а третьи «факты» выдуманы.

Конфузионное дезинформирование имеется: при измерениях с погрешностя­ми, при сообщении ошибочного адреса или при перехвате одного письма и заме­не его другим.

 

42) Рассмотрим информирование, при котором имеются сообщения, принадлежа­щие только информационным цепям и не принадлежащие ни к Одной из кодовых цепей. Такие сообщения называются парасообщениями.

Параинформация содержится в ассоциации, в которой одно из сообщений - парасообщение.

Параинформирование - это информирование, в котором участвуем параин­формация (рис. 1.14а).

Рис. 1.14. Параинформирование: а - паратрансинформирование, б и в- парадезинформирования, соответственно симуляционное и диссимуляционное, г ид- конфузионное парадезинформирование; л:3 и v3- парасообщения, соответст­венно параоригинап и параобраз;

В зависимости от числа параинформаций в оригиналах и образах будем разли­чать симуляционное, диссимуляционное и конфузионное парадезинформирова- аия (рис. 1.146, в, г, д); также следует различать симуляционную парадезин- формацию (рис. 1.146) и отсутствие параинформации в образах при наличии их в оригиналах, называемое диссимуляционной парадезинформацией (рис. 1.14в).

Симуляционное парадезинформирование осуществляется, например, когда слушатель придаёт сказанному больший смысл, чем это выражает говорящий. При диссимуляционном парадезинформировании, напротив, слушатель недопо­нимает говорящего.

Конфузионным парадезинформированием будет, например, вкладывание в произнесенные слова иного смысла, чем имел ввиду говорящий или усмотрение одобрения в осуждающих высказываниях и наоборот и т.д.

 

 

43) При структурном подходе измерение информации осуществляется простым подсчетом числа сообщений (информационных элементов), составляющих ин­формационный массив, или количеством преобразований сообщений (связей между информационными элементами), или числом комбинаций, которые мож­но реализовать из этих сообщений (элементов). Этот подход применяется для оценки ёмкости информационных систем без учёта условий их применения. К та­ким системам относят средства формирования, передачи, обработки, преобразо­вания и хранения сообщений.

При статическом подходе количество информации ставится в зависимость от вероятности появления сообщений. Такой подход позволяет оценить инфор­мационные возможности систем с учетом конкретных статистических свойств сообщений и помех. Подчеркнём, что статистическая теория передачи сообще­ний, называемая обычно (статистической) теорией информации, является в на­стоящее время наиболее развитым направлением в общей теории информации. Однако этот подход описывает далеко не все информационные явления даже в технических системах.

Семантический подход предназначен для учёта целесообразности, ценности, полезности, существенности и содержательности информации, для оценки эф­фективности логического опыта. Например, более ценной можно считать ту ин­формацию, которая содержится в более короткой программе из возможных программ, ведущих к одной и той же цели из заданного исходного положения

 

44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.

Геометрическая мера информации употребляется в измерении «длины ли­нии», «площади» или «объёма» данного информационного массива (комплекса) в единицах дискретных элементов (сообщений) этого массива. Этой мерой обычно измеряют информационную емкость массива, комплекса и т.п.

Комбинаторная мера информации употребляется для оценки возможностей систем, в которых передача и хранение информации осуществляется при помощи различных комбинаций из набора сообщений. Заметим, что сопоставление сооб­щениям из большого их множества (алфавита) комбинаций из других сообщений меньшего, множества (алфавита) является одним из способов кодирования, а са­ми комбинации (группы сообщений, символов) обычно называются кодовыми комбинациями или кодовыми словами.

Аддитивная мера информации или «мера Хартли» находит широкое приме­нение. Для рассмотрения этой меры введём понятия глубины и длины кодового слова или числа.

Глубина т кодового слова или числа - это количество различных сообщений (элементов, состояний системы, знаков, символов), содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счис­ления.

Длина п кодового слова или числа - это количество повторений символов ал­фавита для образования данного кодового слова или числа. Длина числа соответ­ствует принятой разрядности системы счисления. Таким образом, мера Хартли удобна благодаря свойству аддитивности, ко­торое обеспечивает возможность сложения и пропорциональности количества информации к длине кодового слова.

Для определения количества информации этой мерой берётся не количество разных кодовых слов или состояний системы N, а его двоичный логарифм, т.е. J=log2N. Если N=mn, то выражение можно записать в виде J=log2mn=n*log2m, где log2m=K – постоянная величина. Таким образом, кол-во информации в битах пропорциональное длине кодового слова, так как J=K*n.

 

45) В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответст­венно идентификация - это установление тождества, одинаковости, т.е. отожде­ствление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «иден­тифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобра­зование, переводящее приёмник из одного состояния в другое.

«Информация по Хартли» - это про­грамма по выбору, поиску, идентификации объекта «методом последова­тельного деления на два». Такой метод идентификации называют также дихо­томической или бинарной процедурой поиска.

 

47) Описательная информация - это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания неко­торого определённого сообщение в информационной цепи.

Исходная (реперная) информация - это описательная информация, необхо­димая для определения первого сообщения в информационной цепи.

Исходное сообщение - это сообщение, которое следует преобразовать с по­мощью исходной информации для получения первого сообщения в информаци­онной цепи.

1) Число информации D, описывающих одно сообщение в инфор­мационной цепи, состоящей из n различных сообщений, равно числу этих сооб­щений.

D1=D2=…=Dn=D=n

2) Для описания одного сообщения информационной цепи, содер­жащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.

D1=D2=…=Dn=D=2

3) Если в информационной цепи, состоящей из n сообщений, име­ется m классов, состоящих соответственно из na, nb, …, nm одинаковых сообще­ний, то среднее число описательных информации можно определить следующим выражением


Среднее число описательных информации одного сообщения информацион­ной цепи можно определить как среднее геометрическое средних чисел инфор­мации, описывающих сообщения для всех классов D=n/nq

 

48) Идентифицирующая информация или преобразование для установления тождества - это такая информация, которая относится к наименьшему воз­можному числу информации, необходимых для идентификации отдельного сообщения информационной цепи.

1) Число описательных информаций, необходимых для идентифи­кации сообщения, однозначно определено только в информационной цепи из двух сообщений; при этом Нг= 1.

2) Число информаций, идентифицирующих одно сообщение в ин­формационной цепи, содержащей я различных сообщений, может быть опреде­лено как двоичный логарифм этого числа сообщений. Ha=log2n

3) Если в информационной цепи из л сообщений имеется т клас­сов, каждый из которых состоит соответственно из л,, ль,..., пт одинаковых со­общений, то среднее число идентифицирующих информации можно выразить со­отношением:

 

 

2) Список операций: Оп = {+, *, /, -}. Для объектов той или иной природы операций всегда формируются четко, однако в последствии выяснилось, что «настоящая алгебраическая операция» должна иметь перечень свойств. Если такие не наблюдаются, то эти действия нельзя назвать операцией.

Свойства:

· Ассоциативность (сочетательность)

· Коммутативность

· Дистрибутивность

· Выделенные элементы

Примеры:

Асс – (ab)c=ab*c

Дист – a(b+c)=ab+ac

 

3) A=<M,Y>. Ω={Y}

Св-ва

Назв. Алг

ассоциативность

коммутативность

L

-a

1) Полугруппа

+

-

-

-

2) Коммутативная полугруппа

+

+

-

-

3) Моноид.

+

-

+

-

4) Коммутативный моноид.

+

+

+

-

5) Группа

+

-

+

+

6) Коммутативная группа

+

+

+

+

 

4) A=<M,{f,x}>

Св-ва

Назв.

ассоциативность

коммутативность

 

-a

дистрибутивность

ассоциативность

коммутативность

 

А-1

1) Кольцо

+

+

+

+

+

-

-

-

-

2) Ассоциативное кольцо

+

+

+

+

+

+

-

-

-

3) Коммутативное кольцо

+

+

+

+

+

-

+

-

-

4) Поле

+

+

+

+

+

+

-

+

+

5) Коммутативное поле

+

+

+

+

+

+

+

+

+

 

5) Если удается каждой паре элементов присвоить вещественное неотрицательное число, то это метрическое пространство, а собственно, это число называется метрикой или расстоянием.

1) (аксиома о существовании метрики)

2) (аксиома идентичности)

3) (аксиома симметричности)

4) (аксиома треугольника)

7) Если на данном множестве элементов удастся выявить операцию, которая позволяет из 2-х элементов формируется 3-й, а также образуются новые элементы, то мы получим пространство – линейное пространство.

1)

2) (аксиома ассоциативности)

3) (аксиома о коммутативности)

4) (аксиома о существовании 1 операции)

5) (аксиома о существовании противоположности)

6) (аксиома о деформируемости)

7) (аксиома о деформируемости суммы 2-х элементов)

8) (аксиома о деформируемости любого элемента суммой 2-х чисел)

 

8) Если на множестве элементов есть метрика и элементы этого множества связываются отношением аддитивности и однородности, то это линейное пространство.

Норма позволяет определить расстояние между элементами, норма простой разницы.

1) (аксиома о существовании норм)

2) , если a=0 (аксиома о нулевом элементе)

3) (аксиома о норме деформ. Элемента)

4) (аксиома о норме суммы 2-х элементов, которая никак не больше, чем сумма норм)


Дата добавления: 2015-09-28; просмотров: 95 | Нарушение авторских прав




<== предыдущая лекция | следующая лекция ==>
Региональная программа 17 страница | Национал-социалисты были пламенными поклонниками витаминов, — пишет Маркус Грилль в статье Витамины для «народного организма» немецкого издания Der Spiegel.

mybiblioteka.su - 2015-2024 год. (0.121 сек.)