Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Дискретные источники информации и их основные характеристики

Читайте также:
  1. Cостав и расчетные показатели площадей помещений центра информации - библиотеки и учительской - методического кабинета
  2. I. Виды угроз информации.
  3. I. Основные подсистемы автоматизированной информационной системы управления персоналом.
  4. I. Основные положения
  5. I. Основные функции и функциональные задачи управления фирмой.
  6. I. Основные химические законы.
  7. II Философская концепция Э.Фромма: основные позиции, критика и переосмысление источников, открытия.

Ранее было указано на то обстоятельство, что все современные СПИ построены на основе средств цифровой обработки сигналов и содержат дискретные каналы связи. В связи с чем непрерывные сообщения преобразуются в дискретные с помощью специальных преобразователей, которые без нарушения логики переработки информации можно считать составной частью ИИ. В рамках задач, решаемых учебным пособием, такое допущение вполне оправдано и позволяет причислить все ИИ к типу дискретных. В свою очередь, все дискретные ИИ разделим на два класса:
- дискретные ИИ без памяти (далее просто ИИ без памяти);
- дискретные ИИ с памятью (далее просто ИИ с памятью).

К дискретным ИИ без памяти относятся те, у которых значение очередного элемента на выходе статистически не зависит от значений предыдущих элементов. Если значение очередного элемента на выходе ИИ статистически зависит от значений предыдущих элементов, то говорят, что такой дискретный ИИ обладает памятью.

Значение элемента на выходе ИИ без памяти полностью определяется одномерным рядом распределения вероятностей вида (2), то есть

а средняя неопределенность, приходящаяся на один элемент, равна безусловной энтропии (12), то есть

В общем случае у ИИ с памятью значение очередного элемента на его выходе может зависеть от значений любого количества предыдущих элементов. Ограничимся рассмотрением ИИ, у которых имеется зависимость только между двумя соседними элементами. Работа такого ИИ характеризуется матрицей условных вероятностей элементов (23). Формула полной вероятности и условные вероятности p(xj|xi) позволяют найти одномерное распределение вероятностей p(xi) элементов в выдаваемой ИИ последовательности как решение системы к1 уравнений:

а затем, с помощью известной формулы p(xi,xj) = p(xi)p(xj|xi), можно получить вероятности всех возможных пар соседних символов последовательности.

Для ИИ с памятью на один элемент средняя неопределенность появления на его выходе любого очередного элемента после любого другого равна полной условной энтропии (25), то есть

Для рассмотренных ИИ энтропии H(X) и H(X|X) характеризуют неопределенность того, какой очередной элемент последовательности из множества элементов первичного алфавита появится на выходе источника до передачи. После появления на выходе ИИ очередного элемента нет причин сомневаться в истинности его значения, то есть неопределенность значения элемента полностью снимается. Тогда HПОСЛЕ ПЕРЕДАЧИ = 0 и среднее количество информации, которое переносит один элемент первичного алфавита, поступающий с выхода ИИ на вход канала связи, вычисляется по формулам:
- для источника без памяти

- для источника с памятью на один элемент

Количество информации, переносимой ограниченной последовательностью из m сообщений (элементов), вычисляется по формуле, аналогичной (9),

Формулы (41) и (42) можно использовать и для вычисления количества принятой информации, при условии, что она воспринимается получателем непосредственно с выхода ИИ, либо передается получателю по идеальному каналу связи без помех.


Дата добавления: 2015-07-11; просмотров: 272 | Нарушение авторских прав


Читайте в этой же книге: Цикл переработки информации | Обобщенная структура системы передачи информации | Понятие линии и канала связи | Постановка задачи | Понятие энтропии как меры неопределенности, неполноты знаний | Свойства безусловной энтропии | Условная энтропия | Свойства условной энтропии | Бинарные (двоичные) каналы связи | Вычисление количества информации при передаче сообщений от дискретного источника информации по дискретному каналу связи |
<== предыдущая страница | следующая страница ==>
Совместная энтропия или энтропия объединения| Дискретные каналы связи и их основные характеристики

mybiblioteka.su - 2015-2024 год. (0.007 сек.)