Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Временной анализ

Читайте также:
  1. Cравнительно-исторический анализ нации и национализма Эрика Хобсбаума
  2. I. Исследования в области социальной мобильности и анализ социальной структуры
  3. II. Сравнительный анализ
  4. III. Анализ рынка и стратегия маркетинга
  5. III. Анализ хода воспитательного мероприятия.
  6. III. Главная причина преждевременной старости, выпадения и поседения волос: средство сохранения молодости и красоты
  7. IV. Анализ кредиторской задолженности

Временной анализ заключается в оценке и определении временных характеристик сигнала, для чего строим график исходного сигнала. График представлен на рисунке 5.

 

Рисунок 5 – Исходный сигнал

Частотный анализ


Рисунок 6 – Оценка энергетического спектра сигнала

 


Рисунок 7 – Оценка спектральной плотности мощности сигнала

 

Из рисунка 7 определяем практическую ширину спектра сигнала
fmax = 8 кГц.

Информационный анализ

Для большинства реальных источников сообщения имеют разные вероятности. Например, в тексте буквы А, О, Е встречаются сравнительно часто, а Щ, Ы – редко. При разных вероятностях сообщения несут различное количество информации. При решении большинства практических задач необходимо знать среднее количество информации, приходящееся на один элемент сообщения. Это среднее количество информации при общем числе элементов сообщения источника n и числе символов алфавита

Термин «энтропия» заимствован из термодинамики, где она характеризует среднюю неопределенность состояния системы молекул вещества. В теории информации этот термин введен в 1948 г. американским ученым К. Шенноном и далее более строго определен советскими математиками А.Я. Хинчиным и А.Н. Колмогоровым. Физически энтропия выражает среднюю неопределенность состояния источника сообщений и является объективной информационной характеристикой источника. Энтропия всегда положительна и принимает максимальное значение при равновероятных сообщениях.

Минимальное значение энтропии 0 соответствует случаю, когда одна из вероятностей равна 1, а остальные равны нулю, т.е. имеется полная определенность [интернет].

Определим дифференциальную энтропию сигнала – источника сообщений:

 

(5)


 

Расчет АЦП

Для преобразования любого аналогового сигнала в цифровой необходимо выполнить две основные операции: дискретизацию и квантование. Процесс дискретизации по времени – это процесс получения мгновенных значений преобразуемого аналогового сигнала с определенным временным шагом, называемым шагом дискретизации. Квантование – процесс округления значений сигнала до ближайшего уровня.

Шаг дискретизации по времени ∆t определим из теоремы Котельникова:

 

(6)

Шаг квантования по уровню определяем от уровня помехи сигнала. Дисперсия помехи сигнала равна

 

N* fmax=0,55*107 В2/Гц*10000 Гц=5,5*10-4 B2, (7)

 

а СКО=2,34*10-2 B. Число уровней квантования L при равномерном шаге

 

Δx=3*CKO=0,07 В (8)

определятся как частное от деления размаха сигнала
maxmin) на шаг квантования Δх.

 

(9)

Ближайшее кратное степени 2 является 128, т.е. разрядность АЦП равна не менее 7.

Для нахождения средней мощности шума квантования надо знать закон распределения шума – pАЦП(ξ.) Так как мгновенные значения равновероятны в заданном интервале, то закон распределения шума pАЦП(ξ.) в интервале xj-Δx/2≤ξ≤xj+Δx/2 (где xj-jй уровень квантования) будет равномерным и не будет зависеть от номера интервала.

Следовательно, средняя мощность шума квантования будет равна:

(10)

Закон распределения шума определим из условия нормировки:

(11)

 

(12)

 

(13)

 

Тогда плотность распределения имеет вид

 

(14)

 

Средняя мощность шума квантования:

 

(15)

 

(16)

 

Определим относительную величину мощности шума квантования по сравнению с мощностью переменной составляющей сигнала

 

(17)

 

(18)

 

Число двоичных разрядов k, требуемое для записи любого номера из L уровней квантования

Номеру квантования j = 103 соответствует двоичное число 1100111 и уровень сигнала

(19)

 

Рисунок 8 – Временная диаграмма отклика АЦП (дискретизатора) на уровень с номером j = 103.

 

Энтропия – это математическое ожидание количества информации или мера неопределенности сообщений.

Покажем, что при заданном законе распределения мгновенных значений процесса x(t) все уровни квантования равновероятны. Для этого найдем вероятность j-го уровня квантования, что равносильно вероятности попадания x(t) в интервал xj≤x≤xj+1.

 

(20)

 

Мы видим, что P(xj) не зависит от j.

Тогда энтропия будет определяться как энтропия дискретного источника независимых сообщений, все символы которого равновероятны. Производительностью такого источника будет суммарная энтропия сообщений, переданных за единицу времени:

 

(21)

 

Графики цифрового сигнала и спектральной плотности мощности этого сигнала.

 

Рисунок 8 – Оцифрованный сигнал

 


Рисунок 9 – Оценка энергетического спектра цифрового сигнала

 

Из рисунка 9 видно, что проявился эффект «размножения» частот, вызванный дискретизацией аналогового сигнала.


 


Дата добавления: 2015-12-07; просмотров: 59 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.008 сек.)