Вы находитесь на странице: 1из 160

Федеральное агенТство по образованию

Государственное образовательное учреждение


высшего профессионального образования
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ

Ю. П. Иванов, Б. Л. Бирюков

ИНФОРМАЦИОННО-СТАТИСТИЧЕСКАЯ
ТЕОРИЯ ИЗМЕРЕНИЙ
Модели сигналов и
анализ точности систем
Учебное пособие

Санкт-Петербург
2008

УДК 519.216
ББК 22.172
И20
Рецензенты:
кафедра процессов управления Балтийского государственного
технического университета; доктор технических наук,
профессор С. Н. Шаров

Утверждено
редакционно-издательским советом университета
в качестве учебного пособия

Иванов Ю. П., Бирюков Б. Л.


И20 Информационно-статистическая теория измерений. Моде-
ли сигналов и анализ точности систем: учебное пособие /
Ю. П. Иванов, Б. Л. Бирюков. – СПб.: ГУАП, 2008. – 160 с.
ISBN 978-5-8088-0313-8

Рассматриваются принципы построения, математические модели


и методы анализа информационно-измерительных систем и их
сигналов применительно к летательным аппаратам. Излагаемый
материал основывается на использовании теории вероятности и
случайных процессов, метода пространства состояний, интегральных
и дискретных преобразований, а также элементов функционального
анализа.
Предназначено для студентов, обучающихся по специальности
190300 «Авиационные приборы и измерительно-вычислительные
комплексы» и направлению 551500 «Приборостроение».

УДК 519.216
ББК 22.172

ISBN 978-5-8088-0313-8 © ГУАП, 2008


© Ю. П. Иванов,
Б. Л. Бирюков, 2008

Оглавление

Предисловие................................................................... 5
Глава 1. Общая характеристика информационно-измеритель-
ных систем...................................................................... 7
1.1. Основные понятия и назначение информационно-изме-
рительных систем летательных аппаратов................ 7
1.2. Классификация информационно-измерительных
систем летательных аппаратов................................ 11
1.3. Основные свойства и качество информационно-изме-
рительных систем.................................................. 18
Глава 2. Модели сигналов.................................................. 25
2.1. Основные понятия................................................. 25
2.2. Характеристики и параметры сигналов..................... 27
2.3. Классификация сигналов и помех............................ 31
2.4. Описание типовых сигналов.................................... 37
2.4.1. Простейшие сингулярные детерминированные
функции..................................................... 37
2.4.2. Прямоугольный симметричный импульс
с единичной высотой .................................... 43
2.4.3. Модулированные сигналы............................. 45
2.4.4. Квазидетерминированные сигналы................. 48
2.4.5. Дискретизированные сигналы........................ 48
2.5. Пространство сигналов........................................... 53
2.5.1. Пространство детерминированных сигналов..... 53
2.5.2. Пространство случайных сигналов.................. 59
2.6. Дискретные представления сигналов
при помощи рядов................................................. 62
2.6.1. Конечномерные представления реализаций
сигналов..................................................... 62
2.6.2. Представление случайных сигналов
при помощи обобщённых рядов Фурье............ 66
2.6.3. Представление случайных сигналов
при помощи ряда Карунена–Лоэва................. 73
2.6.4. Представление случайных сигналов при помо-
щи канонических разложений Пугачёва......... 77
2.6.5. Сравнительная характеристика представлений
случайных сигналов при помощи рядов........... 80
2.7. Спектральное представление случайных сигналов...... 81
2.7.1. Частотное разложение стационарного случай-
ного процесса на конечном интервале времени 81


2.7.2. Частотное представление стационарного случайного
процесса на бесконечном интервале
времени.Спектральная плотность
стационарного случайного процесса................ 82
2.7.3. Белый шум.................................................. 85
2.7.4. Понятие формирующего фильтра.................... 86
2.8. Интегральные представления сигналов..................... 88
2.8.1. Общие основы интегральных преобразований... 88
2.8.2. Преобразование Гильберта............................. 91
2.8.3. Преобразование Фурье.................................. 95
2.9. Представление сигналов в пространстве состояний..... 98
2.9.1. Построение модели сигнала в пространстве
состояний................................................... 98
2.9.2. Представление случайных процессов
в пространстве состояний ............................. 105
2.10. Представление дискретных во времени сигналов...... 107
2.10.1. Представление сигнала с ограниченной частот-
ной полосой в виде ряда В. А. Котельникова.... 107
2.10.2. Дискретное преобразование Фурье................ 111
2.10.3. Дискретное преобразование Лапласа и
z-преобразование......................................... 115
2.10.4. Особенности дискретизации случайных
сигналов..................................................... 117
Глава 3. Статистический анализ и оценка точности
линейных систем............................................................. 120
3.1. Постановка задачи................................................. 120
3.2. Модели линейных систем........................................ 121
3.3. Общие правила преобразования случайныхсигналов
линейными системами........................................... 127
3.4. Статистические характеристики выходных сигналов
элементарных звеньев............................................ 132
3.5. Статистические характеристики выходного сигнала
системы во временном представлении....................... 136
3.6. Статистические характеристики стационарных
выходных случайных сигналов в частотном
представлении...................................................... 142
3.7. Преобразование случайных сигналов системами
в пространстве состояний.............................................. 153
Заключение.................................................................... 158
Библиографический список .............................................. 159


Предисловие
В учебном пособии рассматриваются вопросы, необходимые для
изучения будущими бакалаврами, инженерами и магистрами дис-
циплины «Информационно-статистистическая теория измерений»
(ИСТИ) и входящие в программу, составленную в соответствии с
государственным образовательным стандартом высшего професси-
онального образования для специальности 190300 «Авиационные
приборы и измерительно-вычислительные комплексы» и направле-
ния 551500 «Приборостроение». Содержание вопросов и форма их
изложения сформировалась на основе материалов лекций, которые
на протяжении ряда лет читались студентам Санкт-Петербурского
государственного университета аэрокосмического приборострое-
ния.
Учебное пособие состоит из двух частей. Первая часть, которая
рассматривается в данной книге, имеет три главы.
В первой главе раскрывается содержание понятия ИИС, указы-
вается место ИИС в приборном оборудовании летательного аппара-
та, определяются её основные задачи, приводится классификация
ИИС летательного аппарата по их назначению, используемой мате-
матической модели, типу применяемых сигналов. Даётся определе-
ние качества ИИС, основных её свойств и показателей их оценок,
таких как эффективность, точность, надёжность, инвариантность,
динамические характеристики, помехозащищённость, адаптив-
ность, робастность и других.
Во второй главе приводятся основные математические модели
сигналов, помех измерения и результатов измерения датчиками
ИИС, используемыми в приборном оборудовании летательного аппа-
рата. Изложение материала в пособии ведётся от общего к частному
и базируется на представлении сигналов в евклидовом и гильберто-
вом пространствах. Модели сигналов рассматриваются в частотно-
временном аспекте с раскрытием их изоморфизма. Общей моделью,
наиболее адекватной реальным физическим процессам, воздейс-
твующим на датчики информации, является случайный процесс. В
пособии рассматриваются модели сигналов в виде частичных сумм
обобщённых рядов Фурье, Карунена–Лоэва, канонических рядов
Пугачёва, рядов Котельникова, позволяющих упростить модели
сигналов и решить ряд новых задач синтеза ИИС на основе исполь-
зования интервального представления случайных процессов. При
изучении реализаций случайных процессов рассматриваются раз-
личные детерминированные функции времени, в том числе гармо-
нические и сингулярные функции. В качестве моделей помех могут


быть использованы многие модели сигналов, представленные в по-
собии, а также белый гауссовский шум.
В третьей главе рассматриваются методы оценки качества ли-
нейных ИИС и описания выходных сигналов при использовании
первых двух моментов случайных процессов как во временной, так
и в частотной областях. При этом рассматриваются как стационар-
ные, так и нестационарные ИИС при воздействии нестационарных
и стационарных случайных входных процессов. В этом же разделе
рассматриваются методы анализа преобразований сигналов в про-
странстве состояний.
Вторая часть пособия посвящена рассмотрению методо­логии
синтеза ИИС оценки и классификации сигналов
Изложение материала базируется на использовании теории ве-
роятности и случайных процессов, в частности марковских, про-
странства состояний сигналов и систем, элементов функционально-
го анализа, доступных для студентов технических вузов.
Ю.П.Ивановым написаны предисловие, главы 1 и 2, за исключе-
нием пп. 2.8.3, 2.10.2, 2.10.4, а также п. 3.2; Б.Л.Бирюковым подго-
товлена глава 3, а также написаны пп. 2.8.3, 2.10.2, 2.10.4 и заклю-
чение.


Глава 1. Общая характеристика
информационно-измерительных систем

1.1. Основные понятия и назначение


информационно-измерительных систем
летательных аппаратов
Рассмотрим (рис. 1.1) общую структурную схему систем изме-
рения и управления летательным аппаратом [10]. На схеме обозна-
чено: ЛА – летательный аппарат; ИССиИП – информационно-из-
мерительные системы и измерительные приборы ЛА; СУТД – сис-
тема управления траекторным движением ЛА; ИОСУТД – испол-
нительные органы системы управления траекторным движением
ЛА; ОСУ – обобщённая система управления ЛА; РВ – руль высоты;
РН – руль направления; Э – элероны; X(t) – векторы–столбцы (раз-
мерности которых указаны в скобках) полезных сигналов, явля-
ющихся функциями времени; H(t) – векторы–столбцы внешних и
внутренних помех измерения, являющихся функциями времени;
Xˆ (t) – векторные функции времени оценок полезных сигналов;
U(t) – векторные функции времени управляющих сигналов положе-
нием в пространстве ЛА; δв, δн, δэ – углы поворота рулей управле-
ния ЛА соответственно по высоте, направлению и крену.

H(d×1)(t)

Xпр (k×1)(t)
B B δв
РВ
δн
ЛА РН
δэ
Э
H2 (ν×1)(t)
B B

X(q×1)(t) X1 (r×1)(t) H3 (υ×1)(t)


B B

Xˆ ( g × )(t)
HH
1 1(l(lЧ1)(t
×1)(t) U(p×1)(t) ИОСУТД
B B
B B

ИИСиИП СУТД

Xˆ  (ω× )(t) ОСУ (ЭВМ ) U1 (s×1)(t)


B B

X2 (f×1)(t)
B B

Рис. 1.1. Структурная схема систем измерения и управления летатель-


ным аппаратом


ЛА совершает движение в пространстве в некоторой системе коор-
динат OXYZ, связанной с Землёй, по заранее известной или вычисля-
емой в зависимости от полётной ситуации или задач ЛА траектории
в возмущенной среде. Среда характеризуется такими параметрами,
как давление, плотность, температура, влажность и т. д. Процессы,
протекающие в среде, носят случайный характер и могут быть мате-
матически описаны случайными величинами или процессами.
В условии случайных возмущений среды устойчивое относитель-
но заданной (или программной) траектории полёта Xпр(t) движение
ЛА возможно только при наличии управления аэродинамически-
ми силами, действующими на рулевые поверхности рулей РВ, РН,
элероны и т. д. Управляющие сигналы U(t) вырабатываются систе-
мой управления траекторным движением. Управляющие сигналы
поступают на исполнительные органы СУТД только при наличии
информации о положении осей симметрии и параметрах движения
ЛА, а также их производных.
Эта информация может быть получена с помощью измеритель-
ных приборов и информационно-измерительных систем, входящих
в состав бортового оборудования ЛА. Применительно к контуру
СУТД информационно-измерительные системы измеряют вектор-
функцию X(q×1)(t) размерности (q×1), характеризующую реальную
траекторию движения ЛА и производные её ухода от программной
траектории движения, преобразуя их в выходные сигналы ИИС
Xˆ ( g × )(t) . СУТД вырабатывает в соответствии с некоторыми за-
конами сигналы управления U(p×1)(t), поступающие на исполни-
тельные органы системы управления траекторным движением
(ИОСУТД). Исполнительные органы системы управления траектор-
ным движением управляют поверхностями РВ, РН, Э, отклоняя их
соответственно на углы δв, δн и δэ и обеспечивая в каком-то смысле
близость компонент векторов Xпр(k×1)(t) и X(q×1)(t). Таким образом
обеспечивается устойчивое движение ЛА относительно програм-
мной Xпр(t) траектории движения.
Рассмотренную задачу общего траекторного движения ЛА обыч-
но разделяют на две задачи:
– определение положения центра масс ЛА в некоторой системе
координат (СК) 0XYZ, связанной с Землёй или другой планетой, в
любой момент времени – задача навигации;
– определение положения осей симметрии ЛА, скоростей и ус-
корений их изменения во времени и стабилизация их относительно
программной траектории движения – задача пилотирования ЛА.
На рис. 1.1 векторы возмущающих воздействий H(t), действую-
щие на ЛА и различные элементы бортового оборудования, имеют

различную размерность (d, l, ν, υ) и, возможно, различные по мощ-
ности и физической природе компоненты, так как бортовое обору-
дование может находиться внутри фюзеляжа как в герметических,
так и негерметических отсеках и на различных расстояниях от ис-
точников помех.
Полёт ЛА невозможен без двигателей (силовых установок – СУ),
создающих тягу и подъёмную силу, обеспечивающие возможность
движения ЛА над поверхностью Земли. Работа двигателей требует
наличие запаса топлива на борту ЛА. Поэтому возникают задачи
контроля состояния и управления работой СУ, а следовательно, и
задачи измерения параметров режимов работы двигателей, запаса
и расхода топлива.
Полёт ЛА, связанный с наличием на борту ЛА экипажа или пас-
сажиров, требует реализации условий жизнеобеспечения на борту
ЛА, поскольку с подъёмом на высоту атмосферные условия значи-
тельно меняются (давление и температура падают по сравнению с
их значениями на Земле, плотность воздуха и его состав также ме-
няются с высотой) по сравнению с условиями на Земле. В связи с
этим возникает задача управления условиями жизнеобеспечения в
зоне места работы экипажа и нахождения пассажиров, а следова-
тельно, и в необходимости измерения совокупности физических ве-
личин, характеризующих условия жизнеобеспечения в зоне места
работы экипажа и нахождения пассажиров.
ЛА может иметь и специальные задачи – фотографирование зем-
ной поверхности, распыление удобрений и другие задачи, требую-
щие специальных измерений.
Перечисленные задачи значительно шире рассмотренной зада-
чи траекторного движения и учтены на рис. 1.1 наличием векторов
X1(r×1)(t), X2(f×1)(t), Xˆ  (ω× )(t) , размерностей r×1, f×1 и ω×1 соот-
ветственно, а также обобщённой системы управления (ОСУ). В со-
став обобщённой системы управления входит СУТД и дополнитель-
ная система управления, вырабатывающая сигналы U1(s×1)(t), опре-
деляемые параметрами процессов, не связанными непосредственно
с задачей управления траекторным движением.
Если выделить средства измерения как объекты проектирова-
ния из общего состава борто-
вого оборудования (рис. 1.2), H(l×1)(t)
то можно сформулировать X(m×1)(t) Xˆ (n × )(t)
постановку задачи проек- ИИСиИП
тирования бортовых изме-
рительных средств как раз- Рис. 1.2. Информационно-измеритель-
работку алгоритмов работы ная система ЛА


и конструкции информационно-измерительных систем (ИИС) при
известных свойствах, формах представления и диапазонах измене-
ния компонент векторов сигналов X(m×1)(t), возмущений H(l×1)(t) и
векторов показаний Xˆ (n × )(t) ИИС. Таким образом, на ИИС и ИП
воздействует вектор полезных сигналов X(t) размерности m×1, где
m = q+r+f, на выходе которых наблюдается вектор сигналов Xˆ (t)
размерности n×1, где n = g+ω.
При этом требуется обеспечить определённую техническими
условиями степень близости свойств компонент Xˆ i (t) к соответс-
твующим свойствам компонент Xi(t), i = 1, 2, …, m, отражающую
степень адекватности отображения измеряемых физических вели-
чин или процессов в соответствующие им сигналы ИИС или пока-
зания ИП. При этом в качестве моделей сигналов Xi(t), оценок Xˆ i (t)
i = 1, 2, …, m и помех Hj(t), j = 1, 2, …, n используются случайные
процессы и случайные величины. При проектировании одного при-
бора, одной измерительной системы m = 1, n = 1, l = 1.
Бортовое измерительное оборудование образуется как совокуп-
ность приборов и ИИС, обеспечивающих получение и обработку изме-
рительной информации обо всех процессах и их параметрах, которые
в совокупности обеспечивают возможность выполнения всех задач ле-
тательным аппаратом, включая безаварийные взлёт и посадку.
В измерительной технике под средством измерения понимают
всякое техническое средство, используемое в измерениях и име-
ющее нормируемые метрологические характеристики. Таким об-
разом, метрологические свойства средств измерения, в том числе
и бортовых средств измерения, нормированы, т. е. удовлетворяют
нормам, ограничениям, установленным соответствующей техни-
ческой документацией.
Под прибором понимают средство измерения, предназначенное
для выработки сигнала измерительной информации в форме, удоб-
ной для непосредственного восприятия наблюдателем. Бортовые
приборы ЛА имеют в своём составе отсчётные устройства (шкала
и стрелка, шкала и уровень, цифровой счётчик и др.), по которым
оператор (член экипажа) может снять отсчёт измеряемой физичес-
кой величины.
Под ИИС понимают совокупность средств измерения и вспомога-
тельных устройств, связанных между собой каналами связи, еди-
ным алгоритмом работы и обеспечивающих получение, передачу, и
обработку измерительной информации для использования в систе-
мах управления и представление ее в форме, удобной оператору.
Таким образом ИИС в отличие от ИП ЛА производят обработку
и выдают измерительную информацию в форме сигналов, исполь-
10
зуемых в автоматических системах управления и других устройс-
твах (например, бортовой ЦВМ) и, кроме того, как правило, имеют
выводы и на индикационную панель оператора. Обработка измеря-
емой информации ИИС включает в себя различные преобразования
(нормализация, квантование, дискретизация, классификация) сиг-
налов с целью согласования работы отдельных узлов системы и вы-
деление сигналов на фоне шумов (фильтрация и оценивание).
Значительный объём бортового оборудования, устанавливаемого
на борту ЛА, огромное число схемных элементов в нём остро ставят
проблему его надёжности. Недостоверность измерительной инфор-
мации, связанная с наличием погрешности или наличием отказов
в оборудовании, может привести к использованию нагружённых
сверх нормативных уровней режимов работы бортового оборудо-
вания, в том числе и силовых установок, увеличивая вероятность
отказов бортового оборудования и снижая качество решения задач
бортовым оборудованием и летательным аппаратом в целом. Поэто-
му главными являются задачи повышения надёжности бортового
оборудования и исключение возможности попадания недостоверной
измерительной информации в какие-либо каналы ОСУ ЛА.
Следовательно, возникают задачи контроля состояния бортового
оборудования и планёра, в том числе контроля критических (ава-
рийных с точки зрения возможности устойчивого полёта) пилотаж-
но-навигационных параметров и управление структурой бортового
оборудования с целью исключения поступления недостоверной из-
мерительной информации в каналы контуров ОСУ ЛА.

1.2. Классификация информационно-измерительных систем


летательных аппаратов
Классификацию ИИС ЛА будем производить по назначению и
принципу действия систем, по характеру представления сигналов
и способу передачи измерительной информации, по виду используе-
мой математической модели ИИС и способу индикации измеритель-
ной информации.
1. По назначению ИИС можно подразделить на следующие клас-
сы:
– пилотажные системы;
– навигационные системы;
– пилотажно-навигационные системы;
– системы измерения параметров состояний силовых установок;
– системы измерения запаса топлива и управления положением
центра масс ЛА;

11
– системы жизнеобеспечения и жизнедеятельности экипажа и
пассажиров;
– системы контроля критических (аварийных) значений пило-
тажно-навигационных параметров;
– системы измерения и записи (хранения) параметров процесса
полёта;
–системы измерения и контроля параметров бортового оборудо-
вания ЛА.
Современные бортовые ИИС отличаются от ИИС, используемых
для других целей, тем, что для улучшения характеристик, таких
как точность получаемых оценок, достоверность принимаемых
решений, надёжность навигационных приборов, помехозащищён-
ность информационно-измерительных систем строятся как комп-
лексные системы. В этом случае используется несколько разных по
физическому принципу работы измерителей одного и того же пара-
метра и оптимально-инвариантный алгоритм обработки информа-
ции. Например, курсовые системы (КС) имеют в своём составе ги-
роскопические, магнитные, спутниковые, астрономические и дру-
гие измерители курса, наблюдаемые сигналы которых могут быть
использованы для повышения точности оценок курса ЛА.
При классификации по назначению выделена группа ИИС оп-
ределения физических величин (параметров траектории полёта),
необходимых как для решения задачи пилотирования, так и нави-
гации – истинная воздушная скорость V, путевая скорость W, число
Маха M, вектор линейного ускорения A, угловые характеристики в
навигационной 0XYZ и пилотажной 0XсYсZс (связанной с летатель-
ным аппаратом) системах координат. В том числе угол атаки α (угол
между проекцией вектора истинной воздушной скорости Vв полёта
на вертикальную плоскость и строительной осью ЛА) и угол сколь-
жения β (угол между проекцией Vг вектора V на горизонтальную
плоскость и продольной осью ЛА). К этому классу относятся ИИС
пилотажно-навигационных параметров.
Кроме того, выделена система измерения запаса топлива и управ-
ления центром масс ЛА, поскольку запас топлива является важным
параметром, характеризующим возможную длительность полёта.
Система измерения и контроля аварийных значений пилотаж-
но-навигационных параметров помимо получения измерительной
информации предполагает использование операции контроля. В
этих системах осуществляется сравнение текущей измерительной
информации с критическими значениями параметров и выработка
соответствующего сигнала (больше, меньше, в допуске), а также
осуществляется поиск причины возникшей полётной ситуации (от-
12
каз того или иного оборудования ЛА, наличие каких-либо непред-
виденных влияний окружающей среды и др.). Задачей таких систем
может быть анализ полётной ситуации и определение путей выхода
из сложившейся критической ситуации и выработка рекомендаций
пилоту или сигналов управления, обеспечивающих устойчивое
движение ЛА относительно заданной траектории с требуемым ка-
чеством и с высокой вероятностью. Подобная система в целом явля-
ется не только измерительной и управляющей, но и анализатором
ситуации и определения возможных путей выхода из критической
ситуации и должна опираться на принципы структурной и парамет-
рической адаптации к возникшей ситуации и на идеологию теории
сатистических решений. Если система обладает такими свойствами
на всей траектории полёта, то она может быть названа автоматом
безопасности полёта ЛА.
Средства измерения и записи (хранения) параметров процесса
полёта предназначены для сохранения и записи реализаций па-
раметров процесса полёта при авариях ЛА с целью последующего
анализа причин аварии и конструктивной доработки бортового обо-
рудования, обеспечивающего безаварийность полётов с требуемой
вероятностью.
В составе бортового оборудования имеются также автоматизи-
рованные средства контроля (АСК) состояний бортового оборудова-
ния. Распределённые по отдельным видам бортового оборудования
встроенные АСК обычно решают задачу контроля работоспособнос-
ти, т. е. соответствия показателей качества или параметров состо-
яния проверяемого объекта установленных технической докумен-
тацией пределам работоспособного или неработоспособного состо-
яния объекта контроля. При этом обычно используется двухаль-
тернативный контроль, когда экипажу выдаются сигналы «годен»
или «негоден». Эти сигналы могут обобщаться по отдельным видам
бортового оборудования.
2. По принципу действия (или роду физических величин), ис-
пользуемых в процессе преобразования измеряемых физических
процессов в выходную информацию различают:
– механические системы;
– электромеханические системы;
– оптические системы;
– радиотехнические системы;
– электронные системы;
– тепловые системы.
Гироскопическими системами называются электромеханичес-
кие системы, в которых используются свойства гироскопа.
13
На практике часто применяются смешанные ИИС, использую-
щие различные виды физических процессов (оптикомеханические,
электрооптикомеханические, радиооптические и т.д.).
3. По характеру представления сигналов в процессе выработки
выходной измерительной информации можно выделить:
– аналоговые системы;
– импульсные системы;
– цифровые системы;
Также используют следующие смешанные системы:
– аналогоимпульсные;
– аналого-цифровые;
– импульсно-цифровые.
В аналоговых ИИС (в том числе при измерении физических про-
цессов в форме редко появляющихся импульсов, например ударных
ускорений при посадке ЛА) сигналы на всех этапах преобразования
измеряемых физических процессов в выходные сигналы являются
непрерывными функциями времени.
В импульсных ИИС основные этапы преобразования измери-
тельной информации в выходной сигнал осуществляются с помо-
щью сигналов, дискретизированных по времени, – импульсов, по-
являющихся во времени по определённому закону (через равные
промежутки времени при равномерной дискретизации), у которых
информация об измеряемом физическом процессе заложена в одном
или нескольких параметрах – амплитуде импульса, длительности
импульса или частоте появления.
В цифровых ИИС помимо дискретизации сигналов по времени
(обычно используется равномерная дискретизация) осуществляется
и дискретизация по уровню. При этом область возможных значений
разбивается обычно равномерно на некоторое количество квантов
∆, а значению отчёта уровня сигнала X(t) в некоторый производный
момент времени ti, i = 1, 2, …, ставится и в соответствие наибольшее
число квантов такое, что разность между уровнем сигнала X(ti) и
его отсчётом (квантованным по уровню сигналом) X(ti)–X∆(ti) мини-
мальна. Отсчитанный уровень сигнала X∆(ti) представляется в циф-
ровом виде с помощью кода (двоичного, восьмеричного, двоично-де-
сятичного и т.п.).
4. По характеру передачи измерительной информации ИИС мож-
но классифицировать в зависимости от наличия или отсутствия дис-
танционной передачи измерительной информации от измеритель-
ного преобразователя, непосредственно воспринимающего измеря-
емый физический процесс, к преобразователю, обеспечивающему
выдачу сигнала ИИС или отсчёт показаний индикатора. Для ИИС
14
и приборов, даже простейших, характерно наличие дистанционной
передачи (проводной или осуществляемой с помощью специальных
электромеханических устройств) в составе конструкции, посколь-
ку первичный измерительный датчик устанавливается в месте из-
мерения физического процесса, а индикатор – на приборной доске
одного или нескольких членов экипажа. При этом некоторые ИИС,
например, связанные с измерением параметров среды в кабине ЛА,
которые устанавливаются в зоне оперативной деятельности экипа-
жа, могут и не иметь дистанционной передачи.
Таким образом, по указанному признаку ИИС подразделяются
на дистанционные и недистанционные.
5. По виду математической модели ИИС можно классифици-
ровать с точки зрения используемого математического оператора.
Математическое выражение закона, в соответствии с которым по
заданной реализации y(t) входного сигнала определяется реализа-
ция выходного сигнала xˆ (t), называют [4, 6] оператором системы
Aτt { }

xˆ (t) = Aτt {y(τ)}, τ∈ [t0 ,t] , (1.2.1)

где фигурные скобки в обозначении оператора Aτt { } заключают


функцию, над которой производятся действия оператора, индекс τ
внизу обозначает аргумент этой функции, по которому действует
оператор, индекс t вверху указывает на зависимость оператора от
времени, t0 – начальный момент времени. Входной сигнал можно
представить в виде
Y(t) = G{X(t), H(t)} ,
где G – оператор композиции полезного сигнала X(t) и помехи изме-
рения H(t).
В этом плане все математические модели ИИС можно разделить
на линейные и нелинейные. Динамическая система называется ли-
нейной, если её оператор линеен. Оператор Aτt { } называется линей-
ным, если при любых числах n, скалярных числах c1, c2, …, cn и при
любых функциях z1(t), z2(t), …, zn(t), принадлежащих линейному
пространству Z выполяется следующее соотношение:

 n  n
Aτt  ∑ cν ⋅ zν (τ)  = ∑ cν ⋅ Aτt {zν (τ)}, (1.2.2)
ν=  ν=

т. е. результат действия этого оператора на любую линейную комби-


нацию данных функций является линейной комбинацией результа-
15
тов его действия на каждую функцию в отдельности. Динамическая
система линейна тогда и только тогда, когда линейной комбинации
любых входных воздействий соответствует та же линейная комби-
нация соответствующих выходных функций. Это свойство линей-
ных систем, выраженное формулой (1.2.2), называется принципом
суперпозиции. Принцип суперпозиции опирается на два важных
свойства линейных систем – однородности и аддитивности. Свойст­
во однородности связано с возможностью выноса скалярных вели-
чин из-под знака оператора, а свойство аддитивности определяется
равенством процедур взятия оператора от суммы входных воздейс-
твий сумме взятия операторов от каждого входного воздействия в
отдельности. Поэтому линейные системы можно определить как та-
кие системы, для которых справедлив принцип суперпозиции.
Линейные и нелинейные ИИС по виду математической модели
можно подразделить на безынерционные и инерционные.
Безынерционными называются системы, использующие метод
обработки сигналов, при котором не учитываются прошлые пока-
зания измерителей к моменту выработки оценки. Для безынерци-
онной системы справедливо следующее соотношение:
xˆ (t) = A t {y(t)} . (1.2.3)
Для инерционных систем оценка сигнала производится в соот-
ветствии со следующим выражением:
xˆ (t) = Aτt {y(τ)}, τ∈ [t0 ,t] , (1.2.4)
где τ может принимать континуум значений, либо счётное число
дискретных значений в текущем интервале времени [t0, t].
Линейные инерционные ИИС по признаку зависимости или неза-
висимости реакции ИИС xˆ (t) от момента времени поступления на-
блюдаемого сигнала y(τ), где τ∈[t0, t], подразделяются на стационар-
ные и нестационарные ИИС. Стационарность или независимость от
времени есть инвариантность преобразования к временным сдвигам
в том смысле, что для любого y(t) и любого t0, если xˆ (t) = Aτt {y(τ)} , то
xˆ (t − t0 ) = Aτt {y(τ − t0 )} .
Для линейных систем связь выходного и входного сигналов мо-
жет быть записана в виде

xˆ (t) = ∫ g (t, τ)y(τ)dτ , (1.2.5)
−∞
где g(t, τ) – импульсная весовая функция, представляющая собой
реакцию системы на единичный δ-импульс, подаваемый на вход в
момент времени τ при нулеых начальных условиях:

16
g (t, τ) = Aτt {δ(t − τ)}; (1.2.6))

∞, t = 0 ,
δ(t) = 
 0, t ≠ 0 .

Оператор Aτt {} инвариантен во времени тогда, когда импульсная


реакция (весовая функция) g(t, τ) зависит только от разности аргу-
ментов t−τ. Линейный оператор в этом случае соответствует выра-
жению

xˆ (t) = ∫ g (t − τ)y(τ)dτ , (1.2.7)
−∞
т. е. x̂ есть свёртка g и y; свёртку часто обозначают символически
xˆ = g ⊗ y .
Физически реализуемые системы характеризуются тем, что на
их операторы наложено существенное ограничение: они должны
быть неупреждающими или казуальными. Это условие легко выра-
зить через импульсную реакцию. Для того, чтобы выходной сигнал
xˆ (t) зависел бы только от предыдущих значений входного сигнала
y(t) необходимо и достаточно наложить следующее условие на им-
пульсную реакцию:
g(t, τ) = 0 при всех τ >t . (1.2.8)
Это ограничение часто вводят в запись самой операции:
t
xˆ (t) = ∫ g (t, τ)y(τ)dτ , (1.2.9)
−∞

не оговаривая условие на функцию g(t, τ).


Многие динамические ИИС могут быть достаточно точно описа-
ны дифференциальными уравнениями конечного порядка. Указан-
ные математические модели особенно часто используются для опи-
сания цепей с сосредоточенными параметрами. Математическую
модель ИИС при использовании дифференциального оператора n-го
порядка можно записать в следующем виде:
n −
n
di xˆ (t) di y(t)
∑ ai (t) dti
= ∑ bi (t)
dti
, (1.2.10)
i =0 i =0

где ai(t) и bi(t) – непрерывные функции. Если коэффициенты урав-


нения постоянны, то параметры системы не зависят от времени.
17
6. По способу индикации ИИС ЛА подразделяются на ИИС с не-
посредственной выдачей информации оператору и регистрирующие
ИИС ЛА, выдающие информацию на запись на какой-либо матери-
альный носитель (бумажная лента, магнитная плёнка, электрон-
ные носители информации и т. д. ).
ИИС с непосредственной выдачей информации оператору по виду
индикационного канала, используемого оператором, подразделя-
ются на:
– ИИС со зрительной индикацией;
– ИИС со звуковой индикацией;
– ИИС с тактильной (чувствительность кожи к раздражителям –
давлению, температуре и др.) индикацией.
Индикаторы ИИС зрительного канала оператора по способу вы-
дачи информации подразделяются на индикационные, использую-
щие те или иные отсчётные устройства (шкала и стрелки, световой
столб и шкала, цифровая запись, световая сигнализация от диск-
ретных сигналов и т.п.) и изобразительные (карта местности, отоб-
ражение сигналов в виде пространственных рисунков и др.).

1.3. Основные свойства и


качество информационно-измерительных систем
Качество ИИС характеризуется совокупностью свойств, опре-
деляющих пригодность выполнять поставленные задачи в соответ­
ствии с назначением.
Основное назначение ИИС ЛА заключается в своёвременном и
точном измерении навигационных и других физических и медико-
биологических параметров или в достоверности их классификации
с целью обнаружения критических ситуаций.
Характерной особенностью задачи оценки качества ИИС ЛА яв-
ляется многообразие свойств, определяющих успешность выполне-
ния требуемых задач, таких как точность, длительность, надёж-
ность работы, удобство эксплуатации, затраты на производство и
содержание и т.д.
В связи с этим понятие качества рассматриваемых ИИС является
многогранным, комплексным, включающим различные свойства.
К основным свойствам ИИС, определяющим их качество можно от-
нести следующие:
1) эффективность;
2) точность;
3) достоверность;
4) надёжность;

18
5) помехозащищенность;
6) робастность;
7) инвариантность;
8) адаптивность.
Для количественной оценки качества ИИС вводят показатели ка-
чества и свойств ИИС. Показатель качества – это число, характеризу-
ющее в принятой системе единиц свойство систем. Вычисление пока-
зателя качества позволяет произвести сравнение различных ИИС и оп-
ределить, какая система является лучшей по сравнению с другими.
Система, для которой показатель качества принимает экстре-
мальное значение, называется оптимальной. Оптимальная систе-
ма – это наилучшая система в смысле данного показателя качества
из всех возможных систем данного класса. Определение оптималь-
ных систем составляет задачу синтеза ИИС.
При анализе определяются показатели качества известной сис-
темы, а при оптимальном синтезе определяются сами ИИС, обеспе-
чивающие наилучшие значения показателей качества.
1. Эффективность.
Эффективность ИИС – есть мера целесообразности её примене-
ния.
В качестве показателя качества эффективности можно использо-
вать относительную величину затрат:
C
Э =− ,
C
где С – стоимость затрат на создание ИИС ЛА, обеспечивающей за-
данную точность измерения и оценки полезного сигнала или досто-
верность принимаемых решений; С1 – допустимые затраты, предо-
ставленные на создание ИИС ЛА с требуемыми характеристиками.
2. Точность.
В ИИС ЛА одними из основных операций являются измерение
и оценка параметров сигналов. Процесс измерения параметров сиг-
налов характеризуется точностью. Под точностью ИИС понимают
качество её средств измерения и алгоритмов обработки сигналов,
отражающих близость к нулю погрешностей измерения и ошибок
оценок. Для ИИС ЛА характерно, что наблюдаемый сигнал и пог-
решность измерения являются случайными процессами. Для оцен-
ки показателя качества используется величина среднего риска, ко-
торый в случае определения точности обработки векторного сигна-
ла X(t) характеризуется средним квадратом ошибки оценки
R = M[ET E] , (1.3.1)

19
где E = Xˆ − X – вектор ошибки измерения или оценки Xˆ (t) , «Т» –
знак транспонирования вектора (аргумент t в приведённых выраже-
ниях для простоты записи опущен). Преобразуем выражение (1.3.1)
в форму, удобную для использования. Обозначим среднее значение

вектора ошибки оценки M[E] = E и E = E − Μ [E ] – центрированное
значение ошибки оценки, тогда выражение (1.3.1) можно предста-
вить в следующем виде:
   T
R = M[ET E] = M[( E − E + E)T ⋅ ( E − E + E)] = M[E T E] − 2M[E T E] + E E =
 
=Tr{M[E E T ] + E E T } = Tr{KE + E E T } ,
где Tr{} – след матрицы; KE – корреляционная матрица ошибок оце-
нок сигнала X; E E T – матрица, определяемая смещённостью ошиб-
ки оценки E = M[Xˆ ] − M[X] или наличием систематических ошибок
при измерении и оценке сигнала X.
3. Достоверность.
При исследовании ИИС контроля состояний приборного обору-
дования ЛА, обнаружения и распознавания сигналов, классифика-
ции сигналов, т. е. в том случае, когда число альтернативных при-
нимаемых решений z = 0, 1, ..., N по результатам наблюдения Y(t)
счётное и чаще всего конечное, важнейшей характеристикой явля-
ется достоверность принимаемых решений.
Достоверность ИИС определяет степень доверия к принимаемым
решениям. В качестве показателя достоверности ИИС используется
вероятность принятия правильных решений по результатам наблю-
дений.
Пусть в общем случае векторный наблюдаемый сигнал
Y = G{X, H}, есть известная композиция полезного сигнала X и по-
мехи H, где Y∈Ω, X∈Ω, Н∈Ω, а Ω – область возможных значений со-
ответствующих векторов. Рассмотрим случай двуальтернативного
решения, когда по результатам наблюдения принимается одно из
двух взаимоисключающих решений z = 0, 1. Каждое реальное ре-
шение определяется попаданием вектора Y в соответствующую об-
ласть Φ0 или Φ1.При этом Φ0∩Φ1 = Ω, Φ0∪Φ1 = ∅. Кроме реальных ре-
шений будем рассматривать идеальные решения zT = 0, 1, которые
определяются попаданием вектора X в соответствующие области Ω0
или Ω1, Ω0∩Ω1 = Ω, Ω0∪Ω1 = ∅.
Безусловные достоверности D0, D1 соответственно каналов «0»,
«1» и общая безусловная достоверность D могут быть определены в
виде следующих совместных вероятностей:
20
Ω0
B
Φ1
B

Φ0
Ω1
B

Рис. 1.3. Процесс принятия решения: X ∈ Ω0 ⇒ zT = 0, X ∈ Ω1 ⇒ zT = 1,


Y ∈ Φ0 ⇒ z = 0, Y ∈ Φ1 ⇒ z = 1

D0 = P{X ∈Ω0 ; Y ∈Φ 0 } ,
D = P{X ∈Ω; Y ∈Φ } ,
D = D0 + D .
Безусловные вероятности появления ошибок при двуальтерна-
тивном решении определяются следующими соотношениями:
α = P{X ∈Ω0 ; Y ∈Φ } ,
β = P{X ∈Ω; Y ∈Φ 0 } .
При рассмотрении процесса контроля приборного оборудования
ЛА безусловную вероятность α называют риском изготовителя, а
β – риском заказчика.
Безусловная вероятность появления ошибок при принятии дву-
альтернативного решения
γ = α+β .

4. Надёжность.
Для ИИС высокие точность и достоверность являются необходи-
мыми, но недостаточными свойствами, так как даже высокоточные
и высокодостоверные системы могут не выполнить поставленных
задач, если в процессе их работы будут появляться отказы в аппа-
ратуре. Поэтому при оценке качества ИИС необходимо учитывать
свойство, присущее всем приборам – надёжность системы.
Надёжность – это свойство выполнять заданные функции, со-
храняя во времени значения установленных эксплуатационных
показателей в заданных пределах, соответствующих заданным ре-
жимам и условиям использования, технического обслуживания,
ремонта, хранения и транспортирования объекта эксплуатации.
Для ИИС ЛА наибольшее значение имеет свойство надёжности,
характеризуемое безотказностью аппаратуры в процессе полёта.
Одним из способов обеспечения требуемой безотказности является
введение в бортовое приборное оборудование структурной избыточ-
ности путём резервирования узлов или приборов ИИС ЛА.
21
Надёжность – комплексное свойство, а отдельные его компонен-
ты характеризуют:
– безотказность;
– ремонтопригодность;
– сохраняемость;
– долговечность;
– помехозащищённость.
5. Помехозащищённость.
В процессе работы ИИС ЛА на неё воздействуют внутренние и
внешние помехи. Под помехой будем понимать любой дестабилизи-
рующий фактор, действующий на сигнал и вызывающий потерю
информации, т. е. помеха – это причина возникновения погрешнос-
ти или сбоя. Помехи по характеру воздействия можно подразделить
на флюктационные и систематические.
Флюктационные помехи представляет собой последовательность
импульсов, имеющих случайные амплитуду, длительность, форму
и время появления отдельных импульсов.
Систематические помехи могут иметь постоянные или изменяю-
щиеся во времени значения.
Воздействие помех на ИИС приводит к появлению недопусти-
мых погрешностей или даже к срыву функционирования систем.
Поэтому важным свойством ИИС является помехозащищённость.
Способность ИИС нормально функционировать (т. е. получать, об-
рабатывать, выдавать информацию) при наличии помех называет-
ся помехозащищённостью системы.
Чем меньше отличие выходного сигнала от полезного при воз-
действии помех, тем большей помехозащищённостью обладает сис-
тема. Современные ИИС, как правило, работают под воздействием
большого числа интенсивных дестабилизирующих факторов. По-
этому для нормального функционирования ИИС необходимо при-
менять специальные меры по повышению её помехозащищенности.
Любое повышение помехозащищённости ИИС связано с введением
избыточности и усложнением аппаратуры.
В качестве показателя помехозащищённости ИИС можно ввести
следующий критерий:

∆R / R *
Kп = ,
∆a / a*

где R* – оптимальный показатель качества рассматриваемой ИИС


при номинальных значениях параметров помех; a* – номинальное
значение рассматриваемого параметра помехи; DR – изменение по-
22
казателя качества ИИС при отклонении рассматриваемого парамет-
ра от номинального значения на заданную величину Da.
6. Робастность.
Робастность – это малая чувствительность показателя качества
к изменению параметров ИИС.
Показатель робастности можно определить следующим соотно-
шением:
∆R / R *
Kр = ,
∆b / b*
где b* – номинальное значение рассматриваемого параметра ИИС;
DR – изменение показателя качества ИИС при отклонении рассмат-
риваемого параметра от номи-
нального значения на заданную R
величину Db.
Из рис. 1.4 видно, что измене-
ние одного и того же параметра b
приводит к различным изменени-
ям показателя качества. Система, ∆R1 ∆ R2
у которой изменение параметра *
b приводит к менее заметным 0 b* b + ∆b b
Рис. 1.4. Примеры зависимостей
изменениям показателя качест- показателей качества
ва R, является более робастной R двух одинаковых по на-
по отношению к другой. значению ИИС от изме-
7. Инвариантность и адап- нения одного и того же
тивность. параметра b
К моменту проектирования
ИИС обычно объёма априорной информации недостаточно для пол-
ного оптимального синтеза систем. Особенно это типично относи-
тельно информации о полезном сигнале. Поэтому иногда ограни-
чиваются проектированием ИИС, показатель качества которой был
бы независим (инвариантен) от характеристик полезного сигнала.
Можно также построить ИИС инвариантной относительно заданно-
го типа помех. Таким образом, инвариантность систем – это свойс-
тво независимости показателя качества от характеристик полезного
сигнала или от возмущающих воздействий. Для обеспечения свойс-
тва инвариантности требуется введение дополнительных каналов
приёма и обработки полезного сигнала.
Другим способом преодоления априорной неопределенности яв-
ляется построение адаптивной ИИС. Адаптивная ИИС изменяет,
приспосабливает алгоритмы обработки сигналов с целью сохране-

23
ния высокого показателя качества в зависимости от вида входной
информации.
При оценке качества ИИС приходится часто учитывать одновре-
менно несколько разнородных её свойств. В этом случае единый об-
щий критерий показателя качества можно представить в виде функ­
ции некоторых критериев
W = ϕ(W1, W2, …, Wk) .

Каждое Wi оценивает частное i-е свойство ИИС. Частные критерии


можно объединить в единый общий критерий W, используя следую-
щие элементарные действия над частным критериям:

k
W = ∑ λi Wi ,
i =

где параметр λi – «вес» частного критерия Wi. В этом случае общий


результат представляет собой сумму частных результатов, каждый
из которых имеет свою значимость. В том случае, когда общая зада-
ча ИИС решается, если частные критерии принимают значения не
менее заданных Wi*, i = 1…k, общий критерий может быть опреде-
лен следующим соотношением:
, Wi ≥ Wi* ,
W=
*
0 , Wi < Wi , i = ,k .

24
Глава 2. Модели сигналов

2.1. Основные понятия


Для всех ИИС ЛА характерна общность структурного постро-
ения используемых методов анализа и синтеза и показателей ка-
чества их работы. Общим для всех указанных систем и входящих
в них устройств является также то, что их функционирование не-
посредственно связано с сигналами. Так, например, навигационная
ИИС осуществляет измерение физических процессов, таких как из-
менение давления Р, температуры Т, относительной влажности ∆ и
т. д. Совокупность указанных физических процессов, характеризу-
ющих состояние среды, в которой находится ИИС ЛА, определяет
воздействия, содержание информацию или сигналы. Электричес-
кие сигналы на выходе измерителей (первичных датчиков) или па-
раметры сигналов должны соответствовать первичным физическим
воздействиям. Физические процессы, не отнесенные к классу сиг-
налов и приводящие к искажению, т. е. к нарушению соответствия
между первичными физическими процессами и электрическими
сигналами измерителей, называются помехами. К помехам можно
отнести возмущения, вызванные вибрацией, случайным изменени-
ем температуры, нечувствительностью измерителя, турбулентнос-
тью атмосферы и т. д.
Характеризуя сигнал с точки зрения его функционального на-
значения, т. е. отвечая на вопрос «для чего служит сигнал», можно
дать следующее определение: сигнал есть материальный носитель
информации.
Понятие информации базируется на двух философских катего-
риях: отражении и многообразии. «Информация есть отраженное
многообразие» – это определение, данное Л.А.Урсулом [7], подчер-
кивает, что информация возникает в процессе отражения и при на-
личии определенного выбора из множества явлений.
В качестве сигналов используются не сами по себе объекты, а их
состояния. Образование сигнала заключается в изменении состоя-
ний физического объекта, произведенного по определенным прави-
лам.
Таким образом, сигнал есть изменение материального объекта,
произведенное по заранее определенным правилам.
Одному и тому же измеряемому физическому явлению может
быть поставлен в соответствие целый ряд физически различных сиг-
налов. Сохранение информации обеспечивается взаимно однознач-
ным соответствием сигналов. В теории множеств существует поня-
25
тие изоморфизма множеств, придающее точный смысл несколько
неопределенному понятию соответствия сигналов. Рассмотрим по-
нятие изоморфизма для дискретных множеств. Два множества X и
Y, состоящие из элементов x∈X и y∈Y называются изоморфными,
если выполняются следующие условия:
– каждый элемент xm∈X может быть взаимно однозначно сопос-
тавлен с элементом ye∈Y, т. е. xm→ye и ye→xm;
– каждая операция (из некоторого класса операций), преобразу-
ющая элемент xn∈X в xm∈X в множестве Х, f(xn) = xm может быть
взаимно однозначно сопоставлена с операцией ϕ, преобразующей
элемент yk∈Y в ye∈Y, ϕ(yk)→ye, т. е. f→ϕ, ϕ→f;
– если xn∈X соответствует yk∈Y и xm∈X соответствует ye∈Y, если
f(xn) = xm и f→ϕ, то для всех x, y, f ϕ(yk)→ye.
Смысл первых двух условий очевиден, последнее условие обес-
печивает удовлетворение того требования, чтобы элементы xm и ye,
полученные из соответствия друг другу операций f и ϕ, тоже соот-
ветствовали друг другу. В приложении к теории сигналов каждое
множество, упоминаемое в приведенном определении, представля-
ет собой множество физически однородных сигналов. Операции f и
ϕ являются операциями перекодирования. Переход из одного мно-
жества в другое эквивалентен переходу от сигнала одной физичес-
кой природы к соответствующему сигналу другой природы. С этой
точки зрения смысловое (семантическое) содержание информации,
несомой сигналом, исчерпывается изоморфным соответствием меж-
ду сигналами и событием, отражаемым данным сигналом. В свете
понятия изоморфизма задача построения математической модели
сигнала выглядит как задача построения множества математичес-
ких образов, изоморфного множеству реальных сигналов.
В соответствии с определением информации одна единствен-
ная функция измеряемого параметра не может служить моделью
сигнала. Такая функция приобретает сигнальные свойства только
тогда, когда она входит в некоторое многообразие функций. Сле-
довательно, моделью сигнала может служить набор однозначных
функций измеряемого параметра. В качестве конкретной реализа-
ции сигнала используется какая-либо одна из этих функций. Такой
модели соответствует понятие случайного процесса как множества
функций параметра t, на котором определена вероятностная мера.
Каждая конкретная функция называется реализацией случайного
процесса.

26
2.2. Характеристики и параметры сигналов
Под характеристикой сигнала будем понимать зависимость па-
раметров сигнала от времени или частоты. Параметр есть количест-
венное выражение свойства сигнала. Необходимость исследования
характеристик и параметров сигналов вызвана задачами анализа,
синтеза и оптимизации сигналов и информационно-измерительных
систем. Рассмотрение характеристик и параметров сигналов целе-
сообразно производить раздельно применительно к реализациям
сигнала как детерминированным функциям и сигналам как мно-
жеству случайных функций.
Основными задачами теории сигналов являются рассмотрение и
исследование числовых характеристик, параметров, методов пред-
ставления и основных моделей сигналов, в том числе спектральных
характеристик сигналов.
Понятие спектра сигнала возникло из представления периоди-
ческого сигнала x(t) как функции времени в виде ряда, состоящего
из косинусоид (синусоид), называемых гармониками:
N
x(t) = ∑ An cos(ωn t + ϕn ) ,
n =0

с определенным соотношением их амплитуд An, частот ωn и фаз ϕn.


Частоты гармоник ωn кратны частоте ω1, т. е. ωn = nω1 , где ω1 –
частота первой или основной гармоники, период которой по време-
ни равен периоду сигнала T, т. е. ω1 = 2π/T. Если использована ком-
плексная форма записи косинусоид, то ряд имеет вид
N
x(t) = ∑ Cn e jωnt ,
n =− N

где последовательность коэффициентов Cn, в общем случае комп-


лексных, называется дискретным комплексным спектром сигнала
x(t), в то время как последовательность модулей |Cn| образует ампли-
тудный спектр, а фаз arg(Cn) – фазовый. На точность представления
сигнала влияет количество гармоник N, а также способ определе-
ния коэффициентов ряда. Как правило, коэффициенты Cn опреде-
ляются по формуле
b

x(t) e − jnωt dt, b − a = T ,
T ∫a
Cn =

которые в этом случае называются коэффициентами ряда Фурье.


Обобщением представления сигналов посредством рядов Фурье яв-
ляется представление

27

 j ωt
x(t) = ∫ X( jω)e dω ,
2 π −∞

− j ωt
X( jω) = ∫ x(t) e dt ,
−∞
где X(jω) – прямое преобразованием Фурье функции x(t) и называ-
ется комплексным спектром сигнала, который теперь уже может
быть непериодическим. В отличие от спектров при использовании
рядов Фурье спектр X(jω) – сплошной, т. е. является не последова-
тельностью, а функцией непрерывного аргумента – частоты ω. Пер-
вое интегральное выражение является обратным преобразованием
Фурье функции X(jω). Оба преобразования являются взаимно од-
нозначными, и, следовательно, X(jω) несёт в себе всю информацию
о сигнале x(t). Комплексный спектр может быть выражен через ве-
щественные функции
X( jω) = A (ω) e j ϕ(ω) ,
где A(ω) и ϕ(ω) – амлитудный и фазовый спектры соответственно.
Дополнительные сведения о спектрах и их свойствах приводятся в
последующих разделах.
К часто используемым параметрам реализаций сигналов при
анализе и оптимизации моделей сигнала относятся: практически
реальные длительность, время нарастания и полоса частот сигнала,
определяемые соответственно интервалами времени и частоты, при
которых амплитудные значения убывают до заданного значения
относительно максимальных величин, а также средний квадрат
ошибки оценки или воспроизведения, энергия, мощность, средняя
частота, период дискретизации по времени и величина кванта, т. е.
величина дискретизации амплитуды реализации сигнала, ампли-
туда A, частота ω, фаза ϕ гармонического сигнала x(t) = A sin(ωt+ϕ).
К основным характеристикам сигналов, описываемых случай-
ным процессом, относятся закон распределения параметров сигна-
ла и, в частном случае, огибающей узкополосного случайного сиг-
нала, наличие свойства марковости, стационарности и эргодичнос-
ти исследуемого случайного процесса, зависимость спектральной
плотности дисперсии стационарного сигнала от частоты, вид кор-
реляционной функции и математического ожидания сигнала как
функции времени.
В теории сигналов широко используются следующие параметры
и показатели качества ИИС и случайных сигналов: среднеквадра-
тическая точность оценки и фильтрации сигналов, достоверность
28
классификации, длительность среднего интервала корреляции,
среднее число выбросов за заданный уровень, практически реаль-
ная полоса частот спектральной плотности, вероятность недости-
жения заданных границ сигналом, средняя энергия и мощность,
средняя частота непрерывного и средняя частота повторения диск-
ретного сигналов и т. д. При оптимизации ИИС и сигналов наиболее
часто в качестве критериев оптимальности используется средний
квадрат ошибки и достоверность классификации сигналов. Сред-
ний квадрат ошибки оценки сигнала в векторном случае определя-
ется в виде
M[( Xˆ (t) − X(t))T ( Xˆ (t) − X(t))] = Tr{M[( Xˆ (t) − X(t))( Xˆ (t) − X(t))T ]} , (2.2.1)

где Xˆ (t) – оценка сигнала X(t); Xˆ (t) и X(t) – векторы–столбцы раз-


мерности m×1; Tr{} – след матрицы.
Достоверность классификации сигналов есть вероятность приня-
тия правильных решений о принадлежности сигнала к определён-
ному классу по результатам наблюдений.
Рассмотрим некоторые характеристики и параметры сигналов,
описываемых случайными процессами. Математическое ожида-
ние X(t) векторного сигнала X(t) размерности m×1 определяется по
формуле

M[X(t)] = X(t) = ∫ x(t)f (x,t)dx , (2.2.2)
−∞

где f(x, t) – многомерная плотность распределения сигнала, в общем


случае зависящая от времени.
Матрица корреляционной функции Kx(t1, t2) вещественного сиг-
нала X(t) размерности m×m и ее элементы Kxij (t,t2 ) равны
Kx (t,t2 ) Kx2 (t,t2 ) ...... Kxm (t ,t2 )
Kx2 (t,t2 ) Kx22 (t,t2 ) ...... Kx2m (t,t2 )
Kx (t,t2 ) = , (2.2.3)
................... ................... ...... ....................
Kxm (t,t2 ) Kxm2 (t,t2 ) ...... Kxmm (t ,t2 )
∞ ∞
Kxij (t,t2 ) = ∫ ∫ (xi (t ) − xi (t ))(xj (t2 ) − xj (t2 ))f (xi ,xj ;t,t2 )dxdx2 , (2.2.4)
−∞ −∞

где xi(t), xj(t) – компоненты случайного векторного сигнала X(t) в


момент времени t, i, j = ,m ; X(t), Xi (t), Xj (t) – математическое ожи-
дание векторного сигнала X(t) и компонент его; f(xi, xj; t1, t2) – сов-
29
местная плотность распределения Xi и Xj в моменты времени t1и t2.
Величина ∞
Dxi = Kxi (t = t,t2 = t) = ∫ (xi (t) − xi (t))2 f (xi ,t)dx, i = ,m (2.2.5)
−∞

определяет дисперсии компонент сигнала X(t) в момент времени t.


Многие сигналы, соответствующие физическим процессам на бор-
ту ЛА, можно рассматривать как стационарные в широком смысле,
т. е. их корреляционные функции зависят только от разности рас-
сматриваемых моментов времени, а математические ожидания не
зависят от времени
Kxij (t,t2 ) = Kxij (t2 − t ) = Kxij (τ), i = ,m ,

M[xi (t)] = xi (t) = const, i = ,m . (2.2.6)


Среди различных законов распределения случайного процесса
{x(t), t∈T} наиболее широкое применение имеет нормальный закон
распределения для гауссовского случайного процесса.
Случайный процесс называется гауссовским, если для n любых
моментов времени t1, …, tn из T (n – произвольное целое число) n
случайных m-мерных векторов X(t1), …, X(tn) имеют совместное нор-
мальное распределение
   
f ( X* ) = exp  − ( X * − X * )T Kx* − ( X * − X * )  , (2.2.7)
(2π) nm
Kx*  2 

где X* – nm-мерный вектор–столбец вида X*T = [X1, …, Xn], Xi = X(ti) –


вектор размерности m×1; Kx* = Kxlk , l,k = ,n – корреляционная
матрица размера nm×nm, а Kxlk = M ( X(tl ) − X(tl ))( X (tk ) − X(tk ))T  ;
Kx* − – обратная корреляционная матрица; Kx* – определитель мат-
рицы Kx* .
Большое применение в практических приложениях находит
класс случайных процессов, называемых марковскими. Широкое
использование указанных процессов обусловлено, с одной стороны,
возможностью для них получения аналитических выражений для
широкого класса задач анализа и синтеза в пространстве состояний
линейных и нелинейных ИИС, с другой стороны, достаточно точ-
ным приближением этих моделей сигналов к реальным сигналам.
Случайный процесс {X(t), t∈T} называется марковским, если для
любых n моментов времени t1<t2<…<tn из T, где n – любое целое чис-
ло, условная плотность распределения вероятностей X(tn) при усло-
вии, что известны X(t1), …, X(tn−1), имеет следующее свойство:

30
f (xn | xn −,..., x ) = f (xn | xn − ) , (2.2.8)
справедливое для произвольных m-мерных векторов x1 = x(t1), …,
xn = x(tn).
Если считать tn−1 текущем временем, а tn−2, …, t1 – прошедшим,
то вероятностный закон, описывающий поведение процесса в буду-
щем, т. е. во время tn , зависит только от текущего значения процес-
са и совершенно не зависит от его поведения в прошлом. Это свойс-
тво называется «марковостью».

2.3. Классификация сигналов и помех


По виду используемых математических моделей сигналы можно
разделить на детерминированные сигналы, или реализации сиг-
налов, и собственно сигналы, или случайные сигналы. Детерми-
нированные сигналы – такие сигналы, значения которых в любой
момент времени полностью известны, т. е. предсказуемы с вероят-
ностью, равной единице. Сигналы или случайные сигналы – такие
сигналы, значения которых в любой момент времени невозможно
предсказать с вероятностью, равной единице.
В свою очередь сигналы и их реализации по характеру представ-
ления можно разделить на следующие классы:
– сигналы, произвольные по величине и непрерывные по времени;
– сигналы, произвольные по величине и дискретные по времени;
– сигналы, квантованные по величине и непрерывные по времени;
– сигналы, квантованные по величине и дискретные по времени;
– цифровые сигналы.
Сигналы первого типа иногда называют аналоговыми или не-
прерывными в связи с тем, что они задаются по оси времени на
несчетном множестве точек. По оси ординат аналоговые сигналы
могут иметь разрывы 1-го рода. Для сигналов второго типа термин
«дискретный» характеризует способ задания его на временной оси.
Эти сигналы называют еще импульсными. Сигналы третьего типа
определены на всей временной оси, однако величина сигнала может
принимать лишь дискретные значения. Дискретизация сигнала по
величине называется квантованием. Квантование и дискретизация
используются при предоставлении сигналов в цифровой форме с
помощью цифрового кодирования, поскольку уровни можно про-
нумеровать числами с конечным числом разрядов. Сигналы могут
быть модулирующими и модулированными. Модулирующие сиг-
налы, обычно низкочастотные, несут измерительную информацию
и предназначены для модуляции более высокочастотного сигнала,
являющегося переносчиком информации и физически согласован-
31
ного с каналом передачи информации. Модулированные сигналы –
это сигналы, параметры которых изменяются в соответствии с за-
конами изменения параметров модулирующего сигнала. В качестве
таких параметров могут быть использованы амплитуда, частота,
фаза, частота повторения, длительность или величина задержки
импульсов и т. д.
Реализации сигналов можно также классифицировать по ни-
жеследующим признакам. Для этой цели введем следующие обоз-
начения. Будем рассматривать сигнал как элемент множества X.
Само множество X определяется некоторым свойством P, которое
есть утверждение, справедливое для любого элемента множества.
Условно это изображается так: X = {x;P}, т. е. X есть множество всех
x, для которых справедливо P. Вводя дополнительные обозначения,
можно записать P ⇒ x ∈ X , что означает «P верно для любого x, при-
надлежащего X». Определив свойство P, задают тем самым множес-
тво сигналов.
Гармонические сигналы. Обозначим через Xc множество всех
гармонических (синусоидальных) сигналов, т. е.
 
Xc =  x; x(t) = Re eα+ j (θ+2πft)  , − ∞ < t < ∞ , α, θ, f ∈ R  .
 

Утверждение α, θ, f ∈R в (2.3.9) означает, что эти параметры мо-


гут произвольно выбираться из множества всех действительных
чисел R. Поэтому Xc содержит гармонические колебания со всевоз-
можными амплитудами, фазами и частотами.
Часто свойство P для конкретного множества можно указать в
другой форме, например
 d2 x(t) 
Xc = x; 2
+ λ2 x(t) = 0, −∞ < t < ∞, λ ∈ R  . (2.3.10)
 dt 
Решение дифференциального уравнения (2.3.10) определяет гар-
монический сигнал.
Периодические сигналы. Будем обозначать через XT множество
периодических сигналов с периодом T, т. е.
XT = {x; x(t + T ) = x(t), −∞ < t < ∞}. (2.3.11)
Ограниченные сигналы. Множество сигналов, мгновенные зна-
чения которых ограничены по величине некоторым вещественным
положительным числом K, обозначается
XK = {x; x(t) ≤ K, −∞ < t < ∞}. (2.3.12)

32
Ясно, что

x ∈ XK ⇒ x ∈ XK2 , если K2>K1 .


Сигналы с ограниченной энергией. О сигналах из множества
 ∞ 
XE = x; ∫ x2 (t)dt ≤ E  (2.3.13)
 −∞ 

говорят, что их энергия ограничена величиной E, где E – положи-


тельное вещественное число.
Интеграл в выражении (2.3.13) физически трактуют как энер-
гию, подразумевая, что X(t) – есть напряжение на нагрузочном со-
противлении 1 Ом. Интеграл по времени от квадрата этого напря-
жения есть полная энергия, выделяющаяся на нагрузке.
Сигналы ограниченной длительности. Пусть Xτ – это множест-
во сигналов, которые равны нулю за пределами интервала времени
−τ ≤ t ≤ τ
Xτ = {x, x(t) = 0 для всех t > τ}.

Заметим, что X ∈ Xτ ⇒ X ∈ Xτ2 , если τ2 ≥ τ1 .


Сигналы с ограниченной полосой. Пусть Xw – это множество сиг-
налов с полосой, ограниченной частотой W, т. е.
 ∞ 
XW = x; X( jω) = ∫ x(t)e − jωt dt = 0, ω > W  ,
 −∞ 

где X(jω) – спектр сигнала x(t).


Классификация случайных сигналов частично совпадает с клас-
сификацией случайных процессов. При этом можно выделить сле-
дующие практически важные классы сигналов: марковские сигна-
лы; гауссовские сигналы, n-мерные законы распределения значения
которых, соответствующие любым временным сечениям, являются
нормальными; стационарные или квазистационарные сигналы, т. е.
сигналы, являющиеся стационарными на заданном интервале вре-
мени; квазидетерминированные сигналы – такие сигналы X(U, t),
которые определяются функциями случайного вектора U и времени
t и при каждой реализации случайного вектора U являются детер-
минированными функциями времени, и альтернативные им вари-
анты.

33
Множество случайных сигналов можно также классифициро-
вать аналогично реализациям сигналов по следующим свойствам:
– сигналы, ограниченные в среднем по величине:
 ∞ 
XKC =  X; M [X(t) ] = ∫ x(t)f (x(t))dx < K; −∞ < t < ∞  ,
 −∞ 

где f(x(t)) – плотность распределения значений сигнала x(t) в момент


времени t;
– сигналы с ограниченной в среднем энергией
 ∞  ∞ ∞ 
XE =  X;M  ∫ x2 (t)dt  = ∫ ∫ x2 (t)f (x(t))dxdt ≤ E  ; (2.3.14)
  −∞  −∞ −∞ 

– сигналы с ограниченной средней длительностью

 ∞ 
Xτ =  X; τ = ∫ tf (t)dt ≤ τd  ,
 −∞ 
где f(t) – плотность распределения длительности сигнала X(t); τd –
допустимое среднее значение длительности сигнала;
– случайные стационарные сигналы с практически (в теорети-
ческом аспекте случайные сигналы имеют неограниченный спектр)
ограниченной полосой
 
∞ 
XWC =  X; S(ω) = ∫ K (τ)e − jωτ dτ = 0, ω > W 
 2π −∞ 

при условии, что


W

∫ S(ω)dω = Kd Dx ,
−W

где Dx – дисперсия процесса X(t); Kd – известное значение коэффи-


циента (0 < Kd ≤ 1).
Основные классы детерминированных (реализаций) и случай-
ных сигналов представлены соответственно на рис. 2.1, 2.2. К син-
гулярным сигналам относят такие сигналы, для которых не удов-

летворяются соотношения (2.3.13), (2.3.14) или ∫ x(t) dt < ∞ .
−∞

34
Модели сигналов

детерминированные случайные

Детерминированные

несингулярные сингулярные

непрерывные дискретные функция единичная δ - функция


знака функция

дискретные квантованные коды


по времени

описанные описанные
в частотной во временной
области области

интегральное описанные
представление в пространстве
состояний
ряды
моменты
функции
комплексной интегралы
переменной
различные
функции

модулированные немодулированные
сигналы сигналы

по амплитуде

по частоте

по фазе

Рис. 2.1. Классификация реализаций сигналов

35
Случайные

сингулярные несингулярные

непрерывные дискретные дискретные непрерывные

………...
марковские немарковские

………...
гауссовские негауссовские

………...
стационарные нестационарные

………...
во временной в частотной
области области

интегральное
описанные представление
в пространстве
состояний ряды

функции
разные комплексной
функции переменной

функционал
распределения

закон
распределения

моменты

корреляционные
функции

Рис. 2.2. Классификация сигналов

36
2.4. Описание типовых сигналов
2.4.1. Простейшие сингулярные детерминированные функции
Функция называется сингулярной (вырожденной), если
+∞

∫ x(t) dt = ∞ . (2.4.1)
−∞

Если условие (2.4.1) выполняется, то некорректно применять на-


прямую преобразования Фурье и Лапласа.
1. Функция знака
Функция знака определяется следующим выражением:
−, t < 0 ,

sign(t) =  0, t = 0 , (2.4.2)
 , t > 0 .

Используется также следующее представление функции знака:
x(t)
sign(t) = .
x(t)

Умножение произвольной функции x(t) на функцию знака озна-


чает изменение знака x(t) в момент времени t = 0. В связи с тем, что
в данном случае условие (2.4.1) выполняется, для нахождения спек-
тра функции sign(t) поступают следующим образом:
а) образуют sign-образную функцию;
б) получают для sign-образной функции преобразование Фурье;
в) в результате предельного перехода получают спектр функции
знака.
Введём sign-образную (рис. 2.3)), используя экспоненциальные
функции (α>0)
sign∧(t) = e −αt1(t)−eαt1(−t).

sign(t)
1

sign (t)

0 t

–1

Рис. 2.3. Зависимости функций знака и знако-образной от времени

37
Тогда функцию знака можно определить соотношением
sign(t) = lim e −αt ⋅ (t) − eαt ⋅ (−t)  , (2.4.3)
α→0

где единичная функция


, t > 0 ;

(t) = /2, t = 0 ; (2.4.4)
0, t < 0 .

Преобразование Фурье от функции знака определяется следую-
щим соотношением:
∞ 0 
F ( jω) = F {sign(x)}= lim  ∫ (e −αt ⋅ e − jωt )dt − ∫ (e αt ⋅ e − jωt )dt  =
α→0  
0 −∞

∞ 0 
= lim  ∫ (e −(α+ jω)t )dt − ∫ (e(α− jω)t )dt  =
α→0 
0 −∞ 
 ∞ 
( )
0
 
e(
α− jω)t
= lim  (e −(α+ jω)t ) − =
α→0  −(α + jω)
 0 (α − jω) −∞ 

    −2 jω 2
= lim  −  = lim 2 = . (2.4.5)
α→0  −(α + jω) (α − jω ) α→0 α − ( jω) 2 jω
 

Выражение (2.4.5) является комплексным спектром функции


2
знака. Амплитудный спектр равен F ( jω) = . Фазовый спектр оп-
π ω
ределяется значением − на всех частотах. Амплитудный спектр
2
функции знака изображен на рис. 2.4.
2. Единичная функция (единичный скачок, функция Хевисай-
да)
F (ω)

0 ω

Рис. 2.4. Амплитудный спектр функции знака

38
Единичная функция (рис. 2.5) определяется соотношением
(2.4.4) и её также можно определить через функцию знака
 
(t) = + sign(t) .
2 2

1(t)

1
1
2

0 t

Рис. 2.5. Единичная функция


Умножение сигнала на 1(t) равносильно включению этого сигна-
ла в момент времени t = 0
x(t), при t > 0 ,


(t) ⋅ x(t) =  x(t), при t = 0 ,
2
0, при t < 0 .

С помощью единичной функции описываются финитные сигна-


лы (ограниченные по времени).
Преобразование Фурье от единичной функции можно получить,
используя следующее соотношение:
 
F {(t)} = F {} + F {sign(t)} .
2 2
Можно показать, что для константы A преобразование Фурье бу-
дет равно
+∞ +∞
− j ωt 
F { A} = A ∫e dt = 2πA ⋅ ∫ e − jωt dt = A ⋅ 2π ⋅ δ(ω) ,
−∞
2π −∞

где δ(ω) – дельта-функция, тогда


F{1} = 2π δ(ω) ,

 (2.4.6)
F {(t)} = π δ(ω) + .

39
Амплитудный спектр единичной функции показан на рис. 2.6.
F (ω)

0 ω
Рис. 2.6. Амплитудный спектр единичной функции
Таким образом, спектр единичной функции отличается от спек-
тра функции знака наличием у первого дельта-образной составля-
ющей.
3. δ-функция (δ-импульс, единичный импульс, импульсная функ­
ция, функция Дирака)
Будем определять δ-функцию следующими соотношениями:
 ∞ , t = 0 ,
δ(t) = 
 0, t ≠ 0 ,
 +∞ (2.4.7)
 δ(t)dt = .
∫
 −∞
Свойства δ-фукции
Свойство чётности
δ(−t) = δ(t) .
Связь с единичной функцией
Учитывая, что
0 +∞

∫ δ(t)dt = ∫ δ(t)dt = 2 ,
−∞ 0

то
, t > 0 ,
t 

∫ δ(t)dt =  , t = 0,
−∞ 2
0, t < 0 ,
t

∫ δ(τ)dτ = (t) ,
−∞
d(t)
= δ(t) .
dt
40
Фильтрующее свойство
Учитывая, что
∞ , t = t0 ,
δ(t − t0 ) = 
0, t ≠ t0 ,

тогда при tн<t0<tв и существовании производной x(t)


tв tв
t
∫ x(t)δ(t − t0 )dt = x(t)(t − t0 ) t − ∫ (t − t0 )x (t)dt =
в /
н
tн tн

t
= x(tв ) − x(t) tв = x(tв ) − x(tв ) + x(t0 ) = x(t0 ) . (2.4.8)
0

Результат умножения произвольной функции x(t) на δ(t−t0) явля-


ется дельта-функцией, площадь которой равна значению функции
x(t) в точке t0.
Спектр дельта-функции
Используя формально преобразование Фурье, можно получить
спектр дельта-функции

− j ωt
S(ω) = ∫ δ(t) ⋅ e dt = .
−∞

При этом амплитудный спектр равен единице, а фазовый равен


нулю на всех частотах (рис. 2.7).
S(ω)
1

0 ω

Рис. 2.7. Амплитудный спектр дельта-функции


Спектр δ(t–t0)

S(ω) = e − jωt0 .

Обратное преобразование Фурье определяется соотношением


∞ ∞
  jω(t −t )
δ(t − t0 ) = ∫ S(ω)e jωt dω = ∫ e 0 dω .
2π −∞ 2π −∞

41
При t0 = 0

 − j ωt
δ(t) == ∫ e dω .
2π −∞
(2.4.9)

Учитывая чётность δ-функции и заменяя аргументы t→ω, ω→t,


формулу (2.4.9) можно переписать в следующем виде:
∞ ∞
 
δ(ω) == ∫ e jωt dt = − j ωt
∫ e dt .
2π −∞ 2π −∞

Энергия дельта-импульса
Используя равенство Парсеваля, можно отметить, что энергия
дельта-функции

Э = lim ⋅ τи = ∞ .
τи → 0 τ 2
и

Энергию δ-импульса можно также получить, используя понятие


дельта-образной δˆ (t) в виде прямоугольного импульса (рис. 2.8) дли-
тельностью τи с амплитудой 1/τи и предельный переход при τи→0. В
этом случае энергию можно выразить соотношением

Э = lim ⋅ τи = ∞ .
τи →0 τ2
и

δˆ (t)

1/τи

–τи/2 τи/2 t

Рис. 2.8. Дельта-образная функция


Использование производной δ-импульса
В практических приложениях удобно использовать производные
δ-функции. Пользуясь производными δ-функции, можно формаль-
но дифференцировать равенства (2.4.8), являющиеся тождествами
относительно t при изменении t на отрезке [tн, tв]. Предполагая, что

42
функция x(t) имеет непрерывные производные до n-го порядка, по-
лучаем
tв tв

∫ x(τ)δ (t − τ)dτ = ∫ x(τ)δ (τ − t)dt = (−) x (t) , r = ,n .


(r ) (r ) r (r )

tн tн

Используя в этом случае символическую запись скалярного про-


изведения, рассматриваемое свойство можно представить в следую-
щем виде:
(x, δ(r ) ) = (−)r ⋅ (x(r ) , δ) .

Эти равенства имеют место при любом значении t, заключенном


в интервале интегрирования tн ≤ t ≤ tв.

2.4.2. Прямоугольный симметричный импульс


с единичной высотой
Прямоугольный симметричный (рис. 2.9) импульс (стробирую-
щий импульс) длительностью τи rect(t/τи) определяется следующим
образом:
 τи
, t ≤ 2 ,
rect(t/τи ) = 
0, t > τи .
 2

rect(t/τи )

–τи /2 τи /2 t

Рис. 2.9. Стробирующий импульс


Используя соотношение (2.4.4), стробирующий импульс можно
определить выражением
τи τ (2.4.10)
rect(t/τи ) = (t + ) − (t − и ) .
2 2

43
Спектр функции rect(t/τи) с учётом соотношения (2.4.10) и фор-
мулы Эйлера
 ωτ 
sin  и 
A  − jω и 
τи /2 τ τ
jω и
S(ω) = ∫ e − jωt dt = −  e 2 − e 2  = τи  2  = τ sinc  ωτи  ,
jω   ωτи и  2 
−τи /2    
2
ωτи
где sinc( ) – функция отсчётов. Заметим, что значение спектра
2
при ω = 0 S(0) = τи, т. е. площади прямоугольного симметричного
импульса. Спектр функции rect(t/τи) показан на рис. 2.10, ампли-
тудный и фазовый спектры – соответственно на рис. 2.11 и 2.12.
S( ω) |S( ω) |

1 1

−2 π/ τи 2 π/τи
ω
ω

Рис. 2.10. Спектр симметрич- Рис. 2.11. Амплитудный спектр пря-


ного импульса моугольного симметричного
импульса

θ ( ω)

−π ω

Рис. 2.12. Фазовый спектр прямоугольного симметричного импульса


При расширении импульса расстояние между нулями функции
S(ω) сокращается, что равносильно сужению спектра. Значение
S(0) = τи при этом возрастает. При сжатии импульса, наоборот, рас-
стояние между нулями функции S(ω) увеличивается, т. е. происхо-
дит расширение спектра и значение S(0) уменьшается. При τи→0 точ-
ки ω = ±2π/τи, соответствующие двум первым нулям функции S(ω),
удаляются в бесконечность и спектральная плотность, бесконечно
малая по величине, становится равномерной в полосе частот от –∞

44
до ∞. При τи→∞ точки ω = ±2π/τи, соответствующие двум первым ну-
лям функции S(ω), сближаются, значение S(0) = τи стремится к ∞,
а боковые лепестки спектральной плотности стремятся к нулю. Та-
ким образом, при τи→∞ спектральная плотность стремится к δ(ω).
Рассмотрим функцию отсчётов как функцию времени
sin(ωm t)
sinc(ωm t) = , (2.4.11)
ωm t

где ωm – известная величина.


Используя преобразование Фурье чётной функции, позволя-
ющее переменные ω и t взаимно заменять и следующее свойство:
если четному сигналу x(t) соответствует спектр S(ω), то сигналу S(t)
соответствует спектр 2πx(ω), можно показать, что сигналу (2.4.11)
соответствует спектральная плотность в виде прямоугольного сим-
метричного импульса
 π
 при ω ≤ ωm ,
S (ω) =  ωm
0 при ω >ω .
 m

2.4.3. Модулированные сигналы


В сигнале как носителе информации всегда имеются параметры,
изменение которых происходит в соответствии с передаваемым со-
общением или с измеряемыми величинами какого-либо физичес-
кого явления. Таким образом, любой сигнал является случайным
процессом, некоторые из параметров которого модулированы в со-
ответствии с законами изменения соответствующей физической ве-
личины.
Различают следующие наиболее часто встречающиеся виды мо-
дуляции: амплитудная, фазовая, частотная, импульсная, кодовая и
смешанная. Рассмотрим некоторые из видов модуляций, используе-
мые применительно к гармоническому сигналу
x(t) = A(t)cos[ω0t+ϕ(t)] ,
где A(t) – изменение амплитуды во времени; ω0 – основная круговая
частота; ϕ(t) – изменение фазы сигнала.

45
Амплитудная модуляция
В этом случае параметром, несущим информацию, является ам-
плитуда, изменение которой происходит в соответствии с законом
A (t) = A0 + M A λ(t),

где λ(t) – изменение измеряемой физической величины или сооб-


щения; MA – коэффициент глубины модуляции (A0>MA); A0 – сред-
нее значение амплитуды сигнала (математическое ожидание λ(t)
M[λ(t)] = 0, т. е. A0 = M[A(t)]). Будем в дальнейшем предполагать, что
значения λ(t) нормированы так, что −1≤λ(t)≤1 .
В этом виде модуляции частота ω0 фиксирована, ϕ(t) – случайное
изменение фазы гармонического сигнала (мешающий параметр сиг-
нала).
Выражения для сигнала можно записать в виде
 M 
x(t) = A (t)cos (ω0 t + ϕ(t) ) = A0  + A λ(t)  ⋅ cos (ω0 t + ϕ(t) ) =
 A0 

  M  j ω t +ϕ(t) ) 
= Re  A0  + A λ(t)  e ( 0 ,
  A0  

где Re – вещественная часть комплексного сигнала.


Фазовая модуляция
При этом виде модуляции информация связана с изменением
фазы сигнала

{
x(t) = A0 cos[ω0 t + ν(t) + ϕ(t) ] = Re A0 e jν (t) e ( 0 }
j ω t +ϕ(t) )
,

ν(t) = Mф λ(t) ,
где Mф – индекс или глубина фазовой модуляции.
Амплитуда сигнала x(t) в этом случае A0(t) = A0 = const. Введем
обозначение ω0t+ν(t)+ϕ(t) = θ(t). Тогда текущая круговая частота
сигнала
dθ dλ(t) dϕ(t)
ω(t) = = ω0 + Mф + ,
dt dt dt
dλ(t)
где ∆ω = Mф – информационное изменение круговой частоты
сигнала. dt

46
Часто ϕ(t) = const, тогда
dλ(t)
ω(t) = ω0 + Mф .
dt

Если λ(t) = cos Ωt, то величина


max ∆ω(t) = Mф Ω
называется девиацией частоты при модуляции. Таким образом, ее
изменение приводит к прямо пропорциональному изменению дейс-
твительной ширины спектра.
Частотная модуляция
При частотной модуляции гармонический сигнал можно пред-
ставить следующим выражением:

{
x(t) = A0 cos[ω0 t + φ(t) + ϕ(t) ] = Re A0 e jφ(t) e ( 0 }
j ω t +ϕ(t) )
,

t
где φ(t) = Mч ∫ λ(τ)dτ ; Mч – наибольшее отклонение или девиация
0
частоты при модуляции; φ(t) – информационное изменение фазы
сигнала. При λ(t) = cos Ωt

φ(t) = sin Ωt .


Величина называется индексом частоты модуляции и имеет

смысл наибольшего отклонения фазы в процессе модуляции. При
частотной модуляции изменение частоты Ω при малом значении ин-
декса частоты модуляции практически незначительно сказывается
на изменении спектра сигнала.
При использовании импульсной модуляции сигнал x(t) представ-
ляет собой последовательность импульсов, параметры которых (ам-
плитуда, частота, длительность, временное положение) соответс-
твует значениям измеряемой физической величины в дискретный
момент времени.
При кодовой модуляции дискретной по времени и квантованной
по уровню измеряемой физической величине ставится в соответс-
твие кодовая комбинация, которой модулируется заранее извест-
ный сигнал. Кодовая модуляция применяется с целью обеспечения
повышения помехоустойчивости при передаче сигналов по каналам
информации. При этом часто применяют самокорректирующие
коды.
47
2.4.4. Квазидетерминированные сигналы
Часто сигнал или ошибку измерения информационно-измери-
тельной системы можно описать математической моделью вида
X(t, U), представляющую собой детерминированную функцию
X(t, U) времени и векторной случайной величины U = (U1, U2, …,
Um), m≥1. Такие сигналы называются квазидетерминированными.
Примером квазидетерминированного процесса является гармони-
ческий сигнал
X(t, ω, ϕ, A) = A sin(ωt+ϕ)

со случайными амплитудой A, частотой ω и фазой ϕ. Квазидетерми-


нированные модели соответствуют тому случаю, когда параметры
сигнала не меняются на интервале наблюдения. Другим примером
квазидетерминированной модели является полиномиальное пред-
ставление

n
X(t) = ∑ ai ti , (2.4.12)
i =0

где ai – случайные центрированные вещественные величины с из-


вестными дисперсиями, попарно некоррелированные, т. е. M[ai] = 0,
M[aiaj] = 0, если i≠j и M ai2  = Dai .
Такая модель, в частности при i = 0, 1 используется для описа-
ния регулярных ошибок гироскопических измерителей. При i = 0
модель (2.4.12) характеризует систематические ошибки навигаци-
онных измерителей. Так как математическое ожидание процесса
X(t) M[X(t)] = 0, то дисперсия Dx(t) сигнала X(t) изменяется в соот-
ветствии со следующим соотношением:
n
Dx (t) = M  X 2 (t)  = ∑ Dai t2i .
i =0
Поэтому если полиномиальная модель описывает ошибки или по-
мехи измерения, то очень важно вводить информационно-измери-
тельные устройства, устраняющие, по крайней мере, нарастающие
во времени ошибки, т. е. обеспечивать астатизм системы соответ­
ствующего порядка.

2.4.5. Дискретизированные сигналы


В современных информационно-измерительных системах обра-
ботка сигналов происходит при использовании цифровых вычис-
48
лительных машин. В связи с этим измерительные сигналы предва-
рительно преобразуются в кодовые комбинации. Одной из ступеней
такого преобразования является дискретизация, или квантование
по времени сигналов. В авиационных ИИС также широко исполь-
зуются дискретные датчики (типа радиолокационного дальномера)
и дискретные элементы. Поэтому дискретная реализация сигнала
(дискретный процесс) является одной из широко используемых мо-
делей измерительных сигналов.
Дискретный процесс определяется только при дискретных зна-
чениях независимой переменной времени t. Подобный процесс пред-
ставляет собой последовательность чисел X[k], k = 0, ±1, ±2. Обычно
числа расположены равномерно по времени t = kT и разделены ин-
тервалом T.
Квантование непрерывных реализаций сигналов по уровню
Суть квантования (дискретизации по уровню) состоит в замене
континуума значений, которые может принимать непрерывный
сигнал, дискретным множеством заранее установленных значений.
Обычно квантование осуществляется перед кодированием сигналов
в преобразователях «аналог–код» и с целью повышения помехоза-
щищенности. Такое преобразование основывается на том, что пе-
редача информации по каналам связи всегда сопровождается дейс-
твием помех и искажений. Это приводит к тому, что близкие друг к
другу «похожие» непрерывные сигналы трудно различать при при-
еме. Появляется как бы некоторая зона неразличимости (неопреде-
ленности), в пределах которой нельзя установить истинное значе-
ние сигнала. Если учесть заранее некоторые причины искажения,
то можно еще до передачи преобразовать сигналы так, чтобы неже-
лательные факторы уже никакого влияния на них не оказывали.
Характерной особенностью такого преобразования является
преднамеренное введение в сообщение некоторой заранее запла-
нированной ошибки (ошибки квантования). При квантовании по
уровню непрерывная шкала мгновенных значений сигнала x(t) с
размером Ax разбивается на конечное число частей – квантов. По-
лученная при этом дискретная шкала называется шкалой уровней
квантования. Интервал между соседними уровнями квантования
называется шагом квантования Δx. Величина Δx определяется до-
пустимой зоной неразличимости. Квантование может быть равно-
мерным (при шаге постоянном по всей шкале) и неравномерным
(при изменении шага от уровня к уровню по некоторому правилу,
учитывающему статистику квантуемых сигналов). Равномерное
квантование применяется чаще, так как его проще реализовать.

49
x(t)
xкв(t)
∆xi xi+1
xi
xi–1
0 t
εкв(t)
0 t

Рис. 2.13. Квантование непрерывных сигналов

Принцип квантования непрерывного сообщения по уровню изоб-


ражен на рис. 2.13. На нем показаны только три уровня квантования
и введены следующие обозначения: xi−1, xi, xi+1 – уровни квантова-
ния; ∆xi – шаг квантования, εкв(t) – текущая ошибка квантования.
Квантование осуществляется по правилу: мгновенные значения
сигнала, заключенные между соседними уровнями, всегда относят
к ближайшему из них. При таком правиле каждый уровень кванто-
вания должен находиться в середине зоны неразличимости, равной
шагу квантования. На рис. 2.13 для наглядности зона, соответству-
ющая уровню xi, заштрихована, а стрелками условно показано, как
необходимо относить мгновенные значения сообщения x(t) к соот-
вествующим уровням. В результате квантования непрерывное со-
общение заменяется дискретным сообщением xкв(t), которое имеет
ступенчатую форму и может принимать только конечное число раз-
личных мгновенных значений, равное числу уровней квантования
Nкв. Текущая ошибка квантования εкв(t) представляет собой разни-
цу между x(t) и xкв(t)
εкв(t) = xкв(t)−x(t),

которую называют шумом квантования. В пределах i-го шага по


уровню мгновенное значение текущей ошибки ∆εi(t) лежит в интер-
вале

−∆ xi /2 ≤ ∆εi (t) ≤ ∆ xi /2 .

Исследования показывают, что при равномерном квантовании


( ∆ xi = ∆ x = const ) дисперсия (средний квадрат) шума квантования
по всем уровням
Nкв
 ∆2x
ε2кв =
Nкв
∑ ∆εi2 = 2
.
i =
50
Эта величина определяет среднюю мощность шума квантования
Pкв. Так как ∆x = Ax/Nкв, то
∆2x Ax2
ε2кв = = 2
. (2.4.13)
2 2Nкв
Для оценки квантования удобно пользоваться относительной ве-
личиной
ε2кв Pкв
δ2кв = = , (2.4.14)
X 2 Px
где X 2 – дисперсия (средняя мощность) квантуемого сигнала x(t).
На основании выражений (2.4.13) и (2.4.14) имеем

( )
/2 A
 
δкв = Ax2 X 2 = ⋅ x , (2.4.15)
2 3Nкв 2 3Nкв Xэф
где Xэф – эффективное значение сигнала x(t).
Выражение (2.4.15) можно записать в виде
δкв = Kx 3Nкв ,
где Kx = Ax/2Xэф – пик-фактор, зависящий от статистики сигнала.
Практика показывает, что для различных классов непрерывных
сигналов Kx≈1,5…3,5 и, следовательно, δкв≈(1…2)/Nкв. В инженер-
ных приложениях среднеквадратическое значение ошибки кванто-
вания обычно оценивают величиной

δкв = , (2.4.16)
Nкв

которая соответствует пик-фактору Kx = 3 (т. е. равновероятному


распределению мгновенных значений сигнала).

Представление реализациий сигналов в цифровой форме


В результате дискретизации по времени и квантованию по уров-
ню непрерывное сообщение заменяется последовательностью от-
счетов, которые могут принимать только конечное число значений,
равное числу уровней квантования Nкв. Каждое из этих значений
(число) можно выразить в одной из систем счисления и передать по
линии связи в виде кодовых комбинаций. Запись числа N в позици-
онной системе счисления имеет вид

N= ∑ γi Mi − = γm M m− + ⋅⋅⋅ + γM 0 ,
i =m

51
где M – основание системы счисления (M≥2); m – число разрядов;
γi – весовой коэффициент разряда, принимающий одно из целых
значений в интервале 0 ≤ γi ≤M−1.
Передача конкретного числа по линии связи сводится к передаче
его весовых коэффициентов γi. Наиболее просто эта операция реали-
зуется для двоичной системы счисления, когда γi принимает только
два значения (0 и 1). В этом случае кодовые комбинации состоят из
двоичных элементов (например, импульсов и пауз).
Преобразование непрерывных сообщений в цифровую форму
связано с появлением ошибок за счет дискретизации по времени
и квантования по уровню, которые предполагаются некоррелиро-
ванными. В соответствии со свойством аддитивности критерия для
некоррелированных ошибок средний квадрат ошибки цифрового
преобразования
δ2ц = δ2∆ + δ2кв ,

где значение δ∆ определяется ошибкой дискретизации сигнала x(t),


δкв определяется выражением (2.4.16).
При передаче непрерывных сообщений, преобразованных в циф-
ровую форму, наличие помех в канале связи приводит к тому, что
некоторые элементы переданных кодовых комбинаций могут быть
искажены и приняты неверно. В результате кроме указанных выше
ошибок появляется дополнительная ошибка, средний квадрат ко-
торой
δ2п = kPoш ,
где Pош – вероятность ошибки при приеме отдельного элемента циф-
ровой последовательности; k – коэффициент, величина которого за-
висит от характеристик сигналов и помех (k = 1…4), обычно прини-
мают k = 4.
При точностях передачи, представляющих практический инте-
рес, ошибку передачи можно считать некоррелированной с ошибка-
ми преобразования. В этом случае средний квадрат ошибки переда-
чи
δ2общ = δ2ц + δ2п = δ2∆ + δ2кв + δ2п .

52
2.5. Пространство сигналов

2.5.1. Пространство детерминированных сигналов


Представление и преобразование сигналов, соотношения между
идеальными и реальными их значениями удобно интерпретировать
с геометрической точки зрения, изображая сигналы в виде векто-
ров.
Представление сигналов в векторном пространстве позволяет
использовать геометрические понятия и хорошо разработанный ма-
тематический аппарат векторного анализа для установления взаи-
мосвязи различных моделей сигналов, упрощения математических
выкладок, уяснения физической сущности и единства процессов
формирования, передачи и обработки сигналов. На использовании
векторного представления сигналов базируются как методы рацио-
нальной аппроксимации, так и оптимальные методы синтеза самих
сигналов и их систем обработки.
Обычно сигналы ИИС ЛА, рассматриваемые в двумерном про-
странстве как совокупность пар значений {x(t), t}, взятых достаточ-
но плотно, являются сложными функциями времени. С целью уп-
рощения методов анализа, синтеза и автоматизации обработки сиг-
налов желательно представить их в более сложных пространствах,
в которых каждый сигнал изображается простейшим элементом –
точкой. Для указанного перехода широко используются различные
разложения произвольных сигналов в непрерывную или дискрет-
ную последовательность более простых («элементарных») функций,
определяющих базис многомерного пространства. Коэффициенты
разложения чаще всего связаны линейной зависимостью с разла-
гаемым сигналом, что особенно удобно при исследовании методов
обработки в линейных системах, к которым применим принцип не-
зависимости действия оператора преобразования (суперпозиции).
Будем рассматривать пространство сигналов как гильбертово.
Гильбертово пространство – это функциональное, линейное, пол-
ное, бесконечномерное пространство со скалярным произведением.
Напомним, что метрические пространства, обладающие тем свойст­
вом, что в них все фундаментальные последовательности (Коши)
являются сходящимся, называются полными. Последовательность
xn, n = 1, 2, … называется последовательностью Коши, если для
любого ε > 0 существует положительное целое n0, такое, что при
m, n > n0, расстояние между элементами последовательности xm и
xn d(xm, xn)<ε. В гильбертовом пространстве каждой точке соответс-
твует вполне определенный сигнал x(t), который можно рассматри-
53
вать также как вектор этого пространства. При этом бесконечный
базис этого пространства или множество линейно независимых
векторов может быть как счетным, так и несчетным. Важной гео-
метрической характеристикой гильбертова пространства является
скалярное произведение.
Для любых функций x(t) и y(t), принадлежащих гильбертову
пространству H(T), скалярное произведение (x, y) выражается сле-
дующим образом:
(x, y) = ∫ x(t)y* (t)dt , (2.5.1)
T
где T – интервал наблюдения функций x(t) и y(t); * – обозначает
комплексно-сопряженную функцию или величину.
Скалярное произведение – это отображение упорядоченных пар
векторов x(t) и y(t) линейного пространства, в общем случае, в комп-
лексную плоскость, удовлетворяющее следующим условиям:
(x, y) = (y, x)*,
(αx+βy, z) = α(x, z)+β(y, z) ,
(x, x)≥0 и (x, x) = 0 только, если x(t) = 0 . (2.5.2)
При этом (x, αy) = α (x, y), (x, x) – действительное число; α, β – в
*

общем случае комплексные числа.


Скалярное произведение называют иногда также внутренним
произведением. Из соотношения (2.5.1) следует определение нормы
в гильбертовом пространстве

2
x = (x, x) 2 = ∫ x(t) dt . (2.5.3)
T

Норма выражает расстояние от начала координат пространства


до элемента пространства x(t) или размер элемента x(t) в этом про-
странстве. Норма, определяемая действительным неотрицатель-
ным числом, удовлетворяет следующим требованиям:
2
x ≥ 0 и x = 0 только, если x(t) = 0 ;

x + y ≤ x + y – неравенство треугольника;
αx = α ⋅ x . (2.5.4)
Если рассматриваются функции, удовлетворяющие условию
квадратичной интегрируемости
2 2
x = ∫ x(t) dt < ∞ , (2.5.5)
T

54
то гильбертово пространство обозначается H2(T). Для реальных
сигналов, являющихся вещественными функциями времени, усло-
вие (2.5.5) можно записать в виде
2
x = ∫ x2 (t)dt < ∞ , (2.5.6)
T

которое означает, что энергия реальных процессов всегда конечна.


Метрика или расстояние между любыми функциями x(t) и y(t) в
гильбертовом пространстве определяется

 2
d(x, y) = x − y =  ∫ (x(t) − y(t))(x(t) − y(t))* dt  . (2.5.7)
T 

Таким образом, норма и расстояние в гильбертовом пространс-


тве порождаются скалярным произведением.
Метрика, определяемая неотрицательным вещественным чис-
лом, обладает следующими свойствами:
d(x, y)≥0 и d(x, y) = 0, если x(t) = y(t);
d(x, y) = d(y, x) – симметрия;
d(x, z)≤d(x, y)+d(y, z) – неравенство треугольника. (2.5.8)
Из понятий скалярного произведения следует также важное
соотношение, известное как неравенство Коши–Буняковского или
Шварца
2
(x, y) ≤ (x, x)(y, y) , (2.5.9)
т. е.
2

∫ x(t)y (t)dt ≤ ∫ x(t)x* (t)dt ∫ y(t)y* (t)dt .


*

T T T

Равенство достигается, если x(t) = αy(t), где α – скалярная комп-


лексная величина.
Для вещественных гильбертовых пространств скалярное произ-
ведение полезно трактовать как некую меру угла межу векторами,
определяемую соотношением
(x, y)
cos θ = .
x ⋅ y

55
Если нормы x = y =  , то cos θ = (x, y) = ∫ x(t)y(t)dt .
T
Будем считать сигналы x(t) и y(t) ортогональными, если их ска-
лярное произведение равно нулю, т. е.
(x, y) = ∫ x(t)y* (t)dt = 0 .
T

В гильбертовом пространстве H2(T) при использовании ортого-


нального полного базиса Vi(t), i = , ∞ можно получить сколь угодно
близкую аппроксимацию для любого x∈H2(T), т. е. сколь угодно ма-
лое расстояние d(x, xˆ n ) , если выбрать n достаточно большим, а ап-
проксимирующую функцию xˆ n представить в виде ряда Фурье

n
xˆ n (t) = ∑ αi Vi (t) , (2.5.10)
i =

где коэффициенты ряда (2.5.10), называемые коэффициентами Фу-


рье
2
αi = (x, Vi ) Vi . (2.5.11)
Система векторов Vi, i = , ∞ называется ортогональной, если
скалярное произведение любых двух векторов удовлетворяет сле-
2
дующим условиям: (Vi, Vj) = 0 при i≠j и (Vi , Vj ) = Vi ≠ 0 при i = j.
Если используется система ортогональных векторов Ui, i = , ∞ , т. е.
таких векторов, которые взаимно ортогональны и норма их равна
единице Ui = Vi / Vi , (Ui, Uj) = δij = 1 при i = j, δij = 0 при i≠j, (δij – сим-
вол Кронеккера), то соотношение (2.5.11) будет равно αi = (x, Ui). В
пространстве H2(T) для любого вектора x∈H2(T) и любого целого по-
ложительного n справедливо неравенство Бесселя, которое в случае
использования ортогонального базиса Vi, i = , ∞ , можно предста-
вить следующим выражением:
n
∑ αi
2 2 2
Vi ≤ x . (2.5.12)
i =

В случае ортонормального базиса Ui, i = , ∞ , соотношение (2.5.12)


можно записать
n
∑ αi
2 2
≤ x . (2.5.13)
i =

56
Соотношение (2.5.13) показывает, что сумма квадратов коэффи-
циентов разложения (2.5.10) при использовании ортонормального
базиса ограничена для любого x∈H2(T).
Из неравенства (2.5.13) следует, что {xˆ n } в выражении (2.5.10)
есть последовательность Коши, так как для любого ε>0 при доста-
точно большом n0 имеем
n n
∑ ∑
2 2 2 2 2
xˆ n − xˆ m = αi Vi = (x, Vi / Vi ≤ ε2 , n, m > n0 . (2.5.14)
i =m + i =m +

Поскольку H2(T) – полное пространство, то последовательность


{xˆ n } сходится к некоторой точке в H2(T). Таким образом, после-
довательность {xˆ n } сходится к x, если Vi ,i = ,m или Ui ,i = ,m { } { }
есть полная (замкнутая) соответственно ортогональная или орто-
нормальная система. Ортогональная (ортонормальная) система на-
зывается полной, если не существует дополнительных, отличных
от нуля ортогональных (ортонормальных) векторов, которые можно
было бы прибавить к этой системе. При этом полные системы яв-
ляются счетными. Для полной ортогональной системы неравенство
(2.5.12) переходит в равенство Парсеваля
∞ (x, Vi ) ∞
∑ = ∑ αi
2 2 2
2
Vi = x . (2.5.15)
i = Vi i =

Для ортонормированного базиса равенство Парсеваля определя-


ется соотношением

∑ αi
2 2
= x . (2.5.16)
i =

Смысл выражения (2.5.16) в том, что для квадратично интегри-


руемых сигналов энергию сигнала (2.5.16) можно определить сум-
мированием квадратов коэффициентов разложения x(t) в ряд Фу-
рье по ортонормальным составляющим Ui. Разложение сигнала в
этом случае

x(t) = ∑ αiUi . (2.5.17)
i =

На основании сказанного выше можно утверждать, что для лю-


бого ε>0 и любого x∈H2(T) имеется такое n0, что при использовании
ортонормального базиса

57
n
d(x, xn ) = x − xn = x − ∑ (x,Ui )Ui < ε при n > n0
i = .
Таким образом, если используется для предоставления произ-
вольного сигнала подпространство Mn, натянутое на первых n эле-
ментах полной ортонормальной системы, то норма погрешности
может быть сделана сколь угодно малой путем выбора достаточно
большого n. Правда, n зависит от x, поэтому нельзя лимитировать
ошибку равномерно для всех x.
Если размерность функционального пространства со скалярным
произведением конечна и равна n, то в этом случае оно называется
евклидовым.
Любой сигнал x(t) в евклидовом n-мерном пространстве при ис-
пользовании ортогонального базиса Vi(t), i = ,n может быть взаим-
но однозначно представлен в виде
n
x(t) = ∑ αi Vi (t) ,
i =

где αi – в общем случае комплексные коэффициенты Фурье разло-


жения сигнала x(t) относительно ортогональной системы векторов
Vi(t), i = ,n , определяемые соотношением (2.5.11).
Упорядоченная последовательность из n скалярных комплек-
{ }
сных чисел α = αi ,i = ,n определяет взаимно однозначно сиг-
нал x(t) относительно базиса Vi(t), i = ,n . Таким образом, сигналу
x(t)∈Mn, где Mn – евклидово n-мерное пространство, натянутое на
базис Vi(t), i = ,n , взаимно однозначно соответствует вектор–стро-
ка αT = {α1, …, αn}. Множество таких последовательностей Cn, обра-
зующее линейное пространство, определяет множество различных
сигналов, принадлежащих также пространству Mn.
Скалярное произведение в пространстве Mn относительно базиса
Vi(t), i = ,n имеет вид
n
(x, y) = ∑ αiβi* Vi
2
, (2.5.18)
i =

где βi – комплексные коэффициенты Фурье разложения y(x) отно-


сительно ортогональной системы векторов Vi(t), i = ,n .
Если используется ортогональный базис Ui, i = ,n , то получим
равенство скалярных произведений в пространствах Mn и Cn

58
 n n  n n n
(x, y) =  ∑ αiUi ∑ β jUj  = ∑∑ αi β*j (Ui ,Uj ) = ∑ αi βi* = (α,β) , (2.5.19)
 i =  i = j =
 j =  i =

где βT = {β1, …, βn}.


Использование полного ортогонального базиса в (2.5.19) для при-
ближения функций x(t)∈H2(T), кроме обеспечения совпадения ска-
лярных произведений в Mn и Cn, не требует повторения вычислений
заново для определения проекций x на Mn+1.
На практике используется большое количество полных ортого-
нальных систем, к которым можно отнести комплексные гармони-
ческие функции, полиномы Лежандра, полиномы Чебышева, фун-
кции Лагерра, функции Лежандра, функции Чебышева, функции
Уолша и т.д.

2.5.2. Пространство случайных сигналов


Рассмотренные выше пространства сигналов и их свойства от-
носились к реализации сигналов, т. е. детерминированным сигна-
лам.
Пусть математическая модель рассматриваемого сигнала X(t)
описывается случайным (в общем случае комплексным) процессом,
определенным на интервале времени T и при каждом значении t яв-
ляющимся случайной величиной с конечной дисперсией. Пусть так-

∫ ∫ M  X(t)X (t′)  dt dt′ конечно, где M  X(t) X * (t′)  – ма-


*
же значение
TT
тематическое ожидание произведения значений X(t) и сопряженно-
го значения X*(t′) центрированного случайного процесса в моменты
времени t и t′. Представление случайного процесса X(t) в виде век-
тора в пространстве случайных сигналов может быть рассмотрено в
двух аспектах.
В первом варианте представления сигнала в виде вектора (в об-
щем случае в бесконечномерном пространстве) случайный процесс
X(t) рассматривается как совокупность его случайных значений,
каждое из которых определяется для своего момента времени. Слу-
чайное значение X(t) при фиксированном t∈T определяет вектор в
пространстве сигналов относительно определенного базиса. При из-
менении параметра t просто отмечаются точки в этом пространстве.
В пространстве сигналов задается совместная плотность распреде-
ления случайных значений. Определяя скалярное произведение
(X, Y) сигнала X(t) на сигнал Y(t′) из рассматриваемого пространс-
тва сигналов формулой

59
  
( X, Y ) = M  X (t) Y * (t′)  = KXY (t, t′) =
 
∞ ∞  
= ∫ ∫ X (t) Y * (t′)fXY (t, t′) dx dy , (2.5.20)
−∞ −∞
 
где X(t) = X(t) − M[X(t)], Y (t) = Y (t) − M[Y (t)] – центрированные
значения случайных процессов X(t) и Y(t), KXY(t, t′); fXY(t, t′) – вза-
имная корреляционная функция и совместная плотность распреде-
ления случайных процессов X(t) и Y(t′) соответственно в моменты
времени t и t′, норму элемента X(t) можно определить следующей
формулой:

   2  2 
X =  M  X(t)   = [KX (t,t) ]2 = σ X (t) < ∞ , (2.5.21)
   
  

где KX(t, t), и σX(t) – автокорреляционная функция и среднеквадра-


тическое значение случайного процесса X(t) в момент времени t, т. е.
получаем гильбертово пространство H2.
Расстояние в этом пространстве сигналов определяется следую-
щим соотношением:

      2  2
d( X, Y ) =  M  X (t) − Y (t′)   =
   
 

= (KX (t, t′) − 2KXY (t, t′) + KY (t, t′) )2 . (2.5.22)
В качестве базиса разложения случайных величин X(t) обычно
используются случайные некоррелированные центрированные ве-
личины с конечными дисперсиями, а компонентами αi, i = , ∞ , век-
тора X(t) являются математические ожидания коэффициентов ряда
Фурье, построенного на основе указанного базиса.
Данная интерпретация случайного процесса X(t) как вектора
гильбертова пространства используется для определения характе-
ристик и при исследовании свойств рассматриваемых сигналов.
Во втором варианте представления случайного процесса X(t), оп-
ределённого на интервале времени T в виде вектора в пространстве
сигналов, случайный процесс X(t) рассматривается как ансамбль
детерминированных функций времени (реализаций) и с каждой ре-

60
ализацией сопоставляется одна из точек или вектор пространства
сигналов, в котором определена совместная плотность распределе-
ния случайных значений реализаций.
Определяя скалярное произведение (X, Y) сигнала X(t) на сигнал
Y(t′) из рассматриваемого пространства формулой
    
( X, Y ) = ∫ ∫ M  X(t) Y * (t′)  dt dt′ = ∫ ∫ KXY (t,t′)dt dt′ , (2.5.23)
TT   TT

и, следовательно, норму элемента X(t) формулой


 
    2  2
X =  ∫ ∫ M  X(t) X(t′)  dt dt′  =  ∫ ∫ KX (t,t′)dt dt′  < ∞ , (2.5.24)
   
TT    TT 

получаем гильбертово пространство L2(T, H2) над гильбертовым


пространством H2(T) случайных величин.
Расстояние между сигналами X(t) и Y(t′) в этом пространстве сиг-
налов определяется следующим соотношением:

      2 2
d( X, Y ) =  ∫ ∫ M  X(t) − Y (t′)  dtdt′  =
TT   
  


 2
=  ∫ ∫ [KX (t,t′) − 2KXY (t,t′) + KY (t,t′) ]dtdt′  . (2.5.25)
 
TT 

Компонентами вектора X обычно являются случайные коэффи-


циенты разложения αi, i = , ∞ сигнала X(t) относительно заданного
ортогонального и часто функционально связанного с корреляци-
онной функцией KX(t, t′) базиса (обобщенный ряд Фурье, канони-
ческое разложение Котельникова, ряд Карунена–Лоэва). Данная
интерпретация случайного процесса X(t) как вектора гильбертова
пространства наиболее часто используется при аппроксимации и
формировании по известным элементарным случайным процессам
исследуемого сигнала X(t).
Неравенство Бесселя для скалярного случайного процесса X(t)
при использовании ортогонального или некоррелированного базиса
Vi, i = , ∞ , можно записать следующим образом:

61
n
∑ Μ  αi
2 2 2
V ≤ X , (2.5.26)
i =
 i

где Vi определяется соотношением (2.5.21) или (2.5.24).


При использовании замкнутого (полного) ортогонального базиса
справедливо равенство Парсеваля

∑ M  αi
2 2 2
⋅ V = X . (2.5.27)
i =
 i

Если используемый базис является ортонормальным, то соотно-


шение (2.5.27) можно записать в следующем виде:

∑ M  αi
2 2
= X .
i =


2.6. Дискретные представления сигналов при помощи рядов


2.6.1. Конечномерные представления реализаций сигналов
Имеется ряд практических задач, требующих дискретного пред-
ставления непрерывного случайного процесса, как модели сигнала
в виде рядов, где коэффициентами ряда являются случайные вели-
чины, а базисными функциями являются ортогональные на задан-
ном промежутке времени детерминированные функции времени. К
этим задачам относятся:
– аппроксимация случайных непрерывных сигналов конечны-
ми рядами указанного вида с целью использования простых алгеб-
раических линейных методов обработки сигналов вместо использу-
емых интегральных или дифференциальных способов;
– аппроксимация или представление случайных непрерывных
сигналов конечными рядами с целью построения реализаций сиг-
налов по известным их вероятностным характеристикам при мате-
матическом моделировании;
– представление случайных непрерывных сигналов в виде беско-
нечных рядов с целью получения функционалов отношения правдо-
подобия, необходимых для решения оптимальных задач классифи-
кации сигналов.
Так как случайный сигнал задается на множестве реализаций,
то представление сигнала в виде ряда связано с таковым представ-
лением его реализаций как функций времени.

62
Итак, представление сигналов рядами состоит в том, что необхо-
димо с произвольным сигналом ограниченной энергии, т. е. времен-
ной функцией X(t)∈H2(T), сопоставить сигнал, определенный в ко-
нечном n-мерном подпространстве H2(T). Задача сводится к нахож-
дению подходящего отображения гильбертова пространства H2(T)
в пространство Cn, где Cn – пространство наборов n комплексных
чисел, т. е. координат векторного n-мерного евклидова пространс-
{ }
тва Mn, натянутого на базис ϕi (t),i = ,n , где ϕi(t) – в общем случае
независимые функции. Такое отображение должно быть в некото-
ром смысле наилучшим, где n выбирается компромиссно с учетом
точности и экономичности представления. Рассмотрим методы дис-
кретного представления сигналов в n-мерном пространстве.
1. Пусть сигнал x(t) принадлежит подпространству H2(T), ко-
{ }
торое натянуто на систему ϕi (t),i = ,n линейно независимых
произвольных функций из H2(T). В этом случае x(t) может быть
единственным образом представлен в виде линейной комбинации
{ }
ϕi (t),i = ,n
n
x(t) = ∑ αi ϕi (t) = α T ϕ(t) , x ∈ Mn , t ∈ T , (2.6.1)
i =

где αT = {α1, α2, …, αn} – транспонированный набор n комплексных


чисел (вектор–строка) – образует представление x(t) в Cn, ϕT(t) =
= {ϕ1(t), …, ϕn(t)}. Так как H2(T) – пространство со скалярным произ-
ведением, то, умножая скалярно левую и правую части соотноше-
{ }
ния (2.6.1) на ϕi (t),i = ,n , получим
Gα = f , (2.6.2)
где
(ϕ, ϕ ) (ϕ2 , ϕ ) ...... (ϕn ,ϕ ) (x, ϕ )
(ϕ, ϕ2 ) (ϕ2 , ϕ2 ) ...... (ϕn , ϕ2 ) (x, ϕ2 )
G= , f= ,
.............. .............. ...... .............. ......
(ϕ, ϕn ) (ϕ2 , ϕn ) ...... (ϕn , ϕn ) (x, ϕn )

откуда
α = G −1f .
{ }
Если ϕi (t),i = ,n – ортогональный базис, т. е. ϕi = Vi, где (Vi, Vj) =
=0 при i = j, то

63

2
0 0 (x, V )
V 2
V

0 0 .........
G − = , G −f =
2
V2 . (2.6.3)
.........
......... .......... .......
(x, Vn )
 2
0 0 2 Vn
Vn

При использовании ортонормального базиса ϕi =Ui,


 Vi 
Ui = ,i = ,n 
 Vi 
n
x(t) = ∑ αiUi (t) , (2.6.4)
i =

α = f , αi = (x,Ui ) , i = ,n . (2.6.5)


Часто возникает задача построения ортонормального бази-

са{U ,i = ,n} из системы n линейно независимых векторов в


i

M {ϕ ,i = ,n}. Чаще всего используется способ ортогонализации


n i
Грама–Шмидта, который получается путем нормализации векто-
ров Vi, определяемых следующей схемой:


Vi = ϕi , 

......................................  (2.6.6)
n − 
Vi 
Vn = ϕn − ∑ (ϕk ,Uk )Uk , Ui = .
k = Vi 

2. Пусть сигнал x(t) принадлежит гильбертову пространству


H2(T). Требуется его представить в конечном подпространстве Mn,
натянутом на произвольную систему ортогональных функций, т. е.
базис Vi, i = ,n подпространства Mn, , определяется соотношениями
(2.6.3).
Поскольку число измерений H2(T) бесконечно, а Mn или Cn конеч-
но, отображение должно быть типа «много в одно». Требуется раз-
бить пространство H2(T) на множества эквивалентности, каждому

64
из которых взаимно однозначно соответствует некоторая точка в Mn.
При этом произвольному вектору x∈H2(T) ставится в соответствие
вектор xˆ n ∈ Mn , наиболее близкий к x в смысле расстояния d(x, xˆ n ) ,
используемого в пространствах H2(T) и Mn, где xˆ n – произвольный
вектор, принадлежащий Mn. Таким образом, каждый вектор из Mn

должен порождать множество эквивалентности Sxˆ n = x ∈ H 2 (T ) , { }


x − xˆ n ≤ x − x n , для ∀ x n ∈ Mn . При этом все векторы из Sxˆ n име-
ют одно и то же представление в виде набора n чисел, совпадающее с
представлением вектора xˆ n . Решение поставленной задачи следует
из теоремы проецирования.
Теорема. Для любого вектора x∈H2(T) существует единственный
вектор xˆ n в Mn, задаваемый разложением
n
xˆ n = ∑ αi Vi ,
i =

где

∫ x(t)Vi
*
(t)dt
(x, Vi ) T
αi = = , (2.6.7)
∫ Vi (t)Vi
2 *
Vi (t)dt
T

такой, что разность (x − xˆ n ) – ортогональна ко всем векторам из Mn


и x − xˆ n < x − x , где x n – любой другой вектор в Mn, а Vi (t),i = ,n { }
ортогональный базис.
Доказательство. Из (2.6.7) и при выполнении (2.6.3) имеем
n
(xi , Vi )
(x − xˆ n , Vj ) = (x, Vj ) − ∑ 2
(Vi , Vj ) = (x, Vj ) − (x, Vj ) = 0 , j = ,n . (2.6.8)
i = Vi

Отсюда следует, что вектор x − xˆ n ортогонален ко всем векторам


в Mn. Покажем, что d(x, xˆ n ) = x − xˆ n – минимальное расстояние
(норма) из всех x − x n .
Рассмотрим квадрат расстояния между x∈H2(T) и произвольным
x ∈ Mn
2
x − x n = (x − xˆ n ) − (x n − xˆ n ) = (x − xˆ n , x − xˆ n ) −
−(x − xˆ n , x n − xˆ n ) − (x n − xˆ n , x − xˆ n ) + (x n − xˆ n , x n − xˆ n ).

65
Поскольку x n − xˆ n ∈ Mn , на основании (2.6.8) средние слагаемые
пропадают,
2 2 2
d(x, x n ) = x − x n = x − xˆ n + x n − xˆ n . (2.6.9)

Ясно, что минимум d(x, xˆ n ) достигается при x n = xˆ n . Назовем xˆ n


ортогональной проекцией x на Mn, η = x − xˆ n – погрешность прибли-
жения x вектором xˆ n . Точность приближения численно характери-
зуется нормой η. Положив в (2.6.9) x n = 0 , получим
2 2 2
η = x − xˆ n . (2.6.10)
Таким образом, два вектора x∈H2(T), y∈H2(T) эквивалентны (x~y)
при проецировании на Mn, если их координаты в Mn:

(x, Vi ) = (y, Vi ) , i = ,n ,


или x~y, если z = (x−y)∈M, где M = {z,(z, x n ) = 0 для всех x n ∈ Mn } и
M – линейное подпространство H2(T). Любой вектор x∈H2(T) может
быть единственным образом представлен суммой вектора из Mn и
вектора из M, причем эти векторы ортогональны, т. е. для любого x
имеет место x = xˆ n + z ; xˆ n ∈ Mn , z ∈ M , (xˆ n , z) = 0 .
Естественно рассматривать H2(T) как прямую сумму подпро-
странства Mn и M, т. е. H2(T) = Mn+M.
Таким образом, для наиболее точного представления x∈H2(T) в
пространстве Mn необходимо выбрать координаты αi спроецирован-
ного вектора xˆ n равными
(x, Vi )
αi = 2
. (2.6.11)
Vi

При использовании ортогонального базиса Ui ,i = ,n { }


αi = (x, Ui) . (2.6.12)

2.6.2. Представление случайных сигналов


при помощи обобщённых рядов Фурье
Представление случайных сигналов в виде рядов позволяет зна-
чительно упростить методы обработки сигналов, расширить класс
решаемых задач при использовании традиционных алгоритмов
фильтрации и классификации сигналов и разработать новые подхо-
ды к решению задач прогнозирования и интерполяции случайных

66
процессов. Использование моделей сигналов в виде рядов Фурье
позволяет заменить с заданной точностью на выбранном интервале
времени случайный непрерывный или дискретный процесс квази-
детерминированным процессом. Использование рассматриваемых
моделей сигналов особенно эффективно в случае линейных преоб-
разований гауссовских наблюдаемых сигналов датчиков, т. е. когда
выполняется принцип суперпозиции. Основное достоинство таких
моделей сигналов заключается в том, что случайный процесс, опи-
сывающий такие сигналы, представляют в виде суммы произве-
дений случайных величин на детерминированные функции, т. е.
заменяют исходный случайный процесс совокупностью квазиде-
терминированных элементарных процессов, операции с которыми
значительно проще осуществлять, чем с исходным случайным про-
цессом.
Пусть входной сигнал X(t) – произвольный центрированный
(математическое ожидание M[X(t)] = 0) случайный процесс, кото-
рый определён на текущем либо локальном замкнутом интервале
[t−T, t], где T может принимать конечное или бесконечное значение.
Будем рассматривать сигналы с конечной энергией, которые удов-
летворяют следующему требованию:
t
2
∫ x(τ) dσ(τ) < ∞ , (2.6.13)
t −T

где выражение (2.6.13) определяет интеграл Лебега–Стилтьеса, ко-


торый позволяет охватить более широкий класс, чем интеграл Ри-
мана, как непрерывных, так и дискретных случайных сигналов.
Если это условие выполняется, то будем обозначать рассматривае-
мый класс сигналов как x(t)∈ L2σ [t−T, t], где L2σ – гильбертово про-
странство. Аппроксимация сигнала на текущем интервале [t−T, t]
эквивалентна локальной аппроксимации сигнала X(t−λ) аргумента
λ из L2σ [0, T] на фиксированном интервале [0, T]. При этом выраже-
ние (2.6.13) можно представить в следующем виде:
T
2
∫ x(t − λ) dσ(λ) < ∞ .
0

Будем предполагать, что весовая функция σ(λ) является не-


убывающей, отличной от константы функцией (если T = ∞, то
σ(∞) = lim σ(λ) конечен), т. е. при λ1 ≤ λ2 ≤ λ3
λ→∞

σ(λ ) ≤ σ(λ2 ) ≤ σ(λ3 ) .


67
Если функция σ(λ) абсолютно непрерывна, то для неё справедли-
во соотношение
dσ(λ) = ω(λ)dλ ,

ω(λ)≥0 .
В этом случае интеграл ( 2.6.13) является интегралом Лебега или
Римана.
Пусть ортонормальные, в общем случае, комплексные функции
ψk(λ), k = 0, 1, …, ∞, определяющие базис разложения сигнала X(t),
принадлежат также пространству L2σ [0, Т].
Условие ортонормальности функций ψk(λ) можно выразить через
скалярное произведение
T
(ψк , ψ l ) = ∫ ψ k (λ)ψ*l (λ)dσ(λ) = δkl , (2.6.14)
0

k = l, δkl = 
где δkl =  – символ Кронекера; * – знак сопряжённой
k ≠ l, δkl = 0
функции y.
Если функция σ(λ) дифференцируема, то скалярное произведе-
ние определяется интегралом Римана
T
(ψк , ψ l ) = ∫ ψ k (λ)ψ*l (λ)ω(λ)dλ .
0

Если рассматривается дискретный случай, то

dσ(λ) = ω(λµ )δ(λµ − λ) . (2.6.15)


Если дискретные значения распределены равномерно, то выра-
жение (2.6.15) можно переписать в следующем виде:

dσ(λ) = ω(λ)δ(µ − λ)dλ , m = 0,,2,....


Для дискретного случая скалярное произведение определяется
выражением
(ψк , ψ l ) = ∑ ψк (µ)ψ∗l (µ)ω(µ) .
µ

Рассмотрим задачу наилучшей аппроксимации случайного про-


цесса X(t) на интервале времени [0, T] конечномерным случайным
68
вектором. На основании теоремы ортогонального проецирования
эта задача в данном случае сводится к представлению случайного
процесса на замкнутом интервале [0, T] в виде частичной суммы
ряда следующего вида:
N −
x N (t − λ) = ∑ xk (t)ψk (λ) , λ ∈ [0,T] , (2.6.16)
k =0

где
∫ x(t − λ)ψk (λ)dσ(λ)
*
(x, ψ k )
xk (t) = =T , k = 0, , ..., ∞ , (2.6.17)
∫ ψk (λ)ψk (λ)dσ(λ)
2 *
ψk
T
N – спектральная размерность модели.
Учитывая (2.6.14 ) и ортонормальность базиса {ψk}, k = 0, 1, …, ∞,
2
квадрат нормы функции ψk(λ) ψ k =  . Тогда выражение (2.6.17)
можно переписать в следующем виде:
xk (t) = ∫ x(t − λ)ψ*k (λ)dσ(λ) . (2.6.18)
T

Соотношения (2.6.16) и (2.6.18) соответственно определяют пред-


ставления случайного сигнала X(t−λ) на замкнутом интервале [0, T]
в виде частичной суммы обобщённого ряда Фурье и обобщённый
спектр xk сигнала в базисе {ψk (λ)}, k = 0, 1, …, ∞.
Точность аппроксимации реализаций сигнала X(t) моделью,
определяемой частичной суммой и коэффициентами ряда Фурье,
можно оценить с помощью квадратичного функционала:
T 2
N −
IN (t) = ∫ x(t − λ) − ∑ xk (t)ψk (λ) dσ(λ) . (2.6.19)
0 k =0

Квадратичный функционал IN(t) при определении xk формулой


(2.6.18 ) имеет минимальное значение по отношению к другим пред-
ставлениям частичной суммой ряда сигнала X(t) относительно взя-
того базиса {ψk(λ)}.
Раскрывая подынтегральное выражение (2.6.19) и учитывая ор-
тонормированность базиса, после взятия интегралов получим сле-
дующее соотношение:
T N −
IN (t) = ∫ x(t − λ)x∗ (t − λ)dσ(λ) − ∑ xk (t)xk∗ (t) ≥ 0 .
0 k =0

69
N −
Отсюда следует, что ряд ∑ xk (t)xk∗ (t) при N→∞ сходится, причём
k =0
выполняется неравенство Бесселя
T ∞

∫ x(t − λ)x (t − λ)dσ(λ) ≥ ∑ xk (t) .


∗ 2
(2.6.20)
0 k

Если для любой функции x(t) из L2σ [0, Т] вместо знака неравенст­
ва имеет место знак равенства, то справедлива формула Парсеваля
(N→∞):
T ∞

∫ x(t − λ)x (t − λ)dσ(λ) =∑ xk (t) .


∗ 2
(2.6.21)
0 k

Если равенство Парсеваля выполняется, то говорят, что базис


{yk(l)} полный (замкнутый). В этом случае
T 2
N −

∫ x(t − λ) − ∑ xk (t)ψk (λ) dσ(λ) → 0 при N → ∞ .


0 k =0

Для замкнутого ортонормированного базиса ошибка представле-


ния сигнала X(t) частичной суммой ряда Фурье определяется:
∞ ∞
∑ xk (t)xk∗ (t) = ∑
2
IN (t) = xk (t) ,
k= N k= N

т. е. сумма не учтённых коэффициентов определяет ошибку IN(t).


Достаточным условием замкнутости ортогонального базиса яв-
ляется, например, следующее условие:
N −
lim
N →∞
∑ ψk (t)ψ∗k (τ) = δ(λ − τ) , (2.6.22)
k =0

где правая часть представляет собой дельту-функцию.


Подстановка (2.6.18) в (2.6.16) в случае N→∞ при выполнении ус-
ловия (2.6.22), и учитывая фильтрующее свойство дельта-функции,
даёт тождество, что и доказывает достаточность выполнения этого
условия для замкнутости {ψk(λ)}.
Теперь рассмотрим X(t) как случайный процесс, а не как отде-
льную реализацию его. При использовании в качестве модели слу-
чайного процесса X(t) частичной суммы ряда Фурье мерой точности
этой модели является среднеквадратический функционал
70
IN (t) = Μ [IN (t) ] =
T N −
= ∫ Μ x(t − λ)x∗ (t − λ)  dσ(λ) − ∑ Μ xk (t)xk∗ (t)  . (2.6.23)
0 k =0

Неравенство Бесселя тогда определяется:


∞ T

∑ M xk (t)xk∗ (t)  ≤ ∫ M x(t − λ)x∗ (t − λ)  dσ(λ) .


k =0 0

Если выполняется равенство Парсеваля


∞ T

∑ M xk (t)xk∗ (t)  = ∫ M x(t − λ)x∗ (t − λ)  dσ(λ) ,


k =0 0

то ортогональная система {ψk (λ)} является замкнутой на интервале


[0, Т] относительно случайного процесса X(t−λ), т. е. на множестве
его реализаций {xj(t−λ)}. В этом случае справедливо следующее со-
отношение:
T  N − 2
lim ∫ M  x(t − λ) − ∑ xk (t)ψ k (λ)  dσ(λ) = 0 .
N →∞  k =0 
0  

Тогда, среднеквадратический функционал, характеризующий


точность приближения случайного процесса X(t−λ) при выбранном
N<∞ и при полном базисе{ψk (λ)}:

IN (t) = ∑ M xk (t)xk∗ (t)  . (2.6.24)
k= N

На основании (2.6.24) условие применимости спектральной мо-


дели (2.6.16) и (2.6.18) к случайному процессу может быть сформу-
лировано в виде требований, применимых к корреляционной функ-
ции случайного процесса
T
IN (t) = ∫ Kx (t − λ,t − λ)dσ(λ) −
0
N − T T
−∑ ∗
∫ ∫ ψk (λ)Kx (t − λ,t − τ)ψk (τ)dσ(λ)dσ(τ) , (2.6.25)
k =0 0 0

71
где Kx(t−λ, t−λ) – корреляционная функция в общем случае нестаци-
онарного случайного процесса X(t−λ).
Предположим, что корреляционная функция
TT
Kx (t − λ,t − τ) ∈ L2σ [0,T ]⇒ ∫ ∫ Kx (t − λ,t − τ) dσ(λ)dσ(τ) < ∞ .
2

00

Пусть корреляционная функция Kx(t−λ, t−τ), как функция аргу-


мента λ при любом τ∈[0, Т] и как функция аргумента τ при любом
λ∈[0, Т], принадлежит L2σ [0, T]×[0, T], т. е. интегрируема на произ-
ведении [0, T]×[0, T]. В этом случае будем говорить, что корреляци-
онная функция локально интегрируема.
Локально интегрируемую корреляционную функцию можно
представить двойным рядом Фурье [5]
N −
Kx (t − λ,t − τ) = ∑ ψk (λ)xkl (t)ψl (τ) , (2.6.26)
k,l =0

где
TT
xkl (t) = ∫ ∫ ψ∗k (λ)Kx (t − λ,t − τ)ψ l (τ)dσ(λ)dσ(τ) , ( 2.6.27)
00

xkl – двойной обобщённый дискретный спектр корреляционной


функции, N – спектральная размерность модели корреляционной
функции, которая, в частности, может быть и бесконечной.
На основание (2.6.25) и (2.6.27) среднеквадратический функцио-
нал примет вид
T N −
IN (t) = ∫ Kx (t − λ,t − λ)dσ(λ) − ∑ xkk (t) . (2.6.28)
0 k =0

С учётом (2.6.26) и свойства ортонормальности среднеквадрати-


ческий функционал можно определить

IN (t) = ∑ xkk (t) . (2.6.29)
k= N

Таким образом, можно сформулировать теорему о применимос-


ти дискретной спектральной модели (2.6.16), (2.6.18) для скалярно-
го случайного процесса: дискретная спектральная модель (2.6.16),
(2.6.18) применима для скалярных процессов с локально интегри-
руемыми корреляционными функциями.

72
Точность локальной аппроксимации (2.6.16) для реализации
случайного процесса характеризуется среднеквадратическим фун-
кционалом, который определяется выражениями (2.6.24), (2.6.28),
(2.6.29). (2.6.24) и (2.6.28) эквивалентны, так как математическое
ожидание M xk (t)xk∗ (t)  = xkk (t).
Достоинства рассмотренного метода представления случайного
процесса X(t) в виде случайного конечномерного вектора заключа-
ется в том, что:
1) ряд Фурье обеспечивает наилучшую точность аппроксимации
сигнала X(t) относительно выбранного базиса;
2) модель сигналов в виде частичной суммы ряда Фурье значи-
тельно проще, чем сам случайный процесс, так как случайный про-
цесс в данном случае заменяется квазидетерминированным процес-
сом, где свойство случайности отражается в коэффициентах ряда
как случайных величинах;
3) интервальная оценка, используемая в данной модели сигнала,
позволяет расширить класс задач, решаемых на основе точечных
методов.
К недостаткам этой модели сигналов можно отнести следующие:
1) ряд Фурье, используемый в рассматриваемой модели сигна-
лов, при произвольном базисе плохо сходится;
2) коэффициенты ряда xk(t) в общем случае являются коррелиро-
ванными величинами, что усложняет анализ и синтез ИИС:
 Dk (t) при k = l ,
M[xk (t)xl∗ (t)] = 
 Kkl (t) ≠ 0 при k ≠ l ;

3) затруднительна оценка показателя точности приближении


IN(t) сигнала X(t) рассматриваемой моделью даже в пределах кор-
реляционной теории, что вызывает неопределённость при выборе
размерности спектра;
4) линейная форма рядов при нелинейных преобразованиях сиг-
налов X(t) в ИИС мало пригодна.

2.6.3. Представление случайных сигналов


при помощи ряда Карунена–Лоэва
Так как ряд Фурье в общем случае не обладает достаточно хо-
рошей сходимостью, то для её улучшения целесообразно находить
оптимальным образом не только коэффициенты разложения, но и
базисные функции.

73
Упростим постановку задачи, выбирая фиксированный интер-
вал представления сигнала X(t) [0, T] и положив dσ(λ) = dλ, ω(λ) = 1,
т. е. будем полагать, что производная по времени от весовой функ-
ции равна единице. Пусть также M[X(t)] = 0, t∈[0, T]. Используя вы-
ражение (2.6.25), запишем выражение для среднеквадратического
функционала
T N − T T
IN (t) = ∫ Kx (λ, λ)dλ − ∑ ∫ ∫ Kx (λ, τ)ψ∗k (λ)ψk (τ)dλdτ . (2.6.30)
0 k =0 0 0

Выберем такие базисные функции, которые обеспечат миними-


зацию среднеквадратического функционала IN(t).
Первое слагаемое не зависит от базиса. Поэтому задача состоит
в том, чтобы найти N ортогональных функций, максимизирующих
величину
N TT N
∑ ∫ ∫ Kx (λ, τ)ψ∗k (λ)ψk (τ)dλdτ = ∑ ( Ax ψk ,ψk ) , (2.6.31)
k =0 0 0 k =0

где (Axψk, ψk) – скалярное произведение, Аx – линейный интеграль-


ный оператор.
Соотношение (2.6.31) определяет сумму квадратичных функци-
оналов. Поскольку ядром оператора является автокорреляционная
функция с конечным средним квадратом, то базисные функции,
обеспечивыющие максимум (2.6.31), определяются из уравнения
T
Ax ϕk (λ) = ∫ Kx (λ, τ)ϕk (τ)dτ = αk ϕk (λ) , 0 ≤ λ ≤ T . (2.6.32)
0

При этом оператор Ax обладает следующими свойствами:


1) это оператор Гильберта–Шмидта, т. е.
TT
2
∫ ∫ Kx (λ, τ) dλdτ < ∞ ;
00

2) самосопряжённый оператор, т. е. (Axψ,ϕ) = (ψ,Axϕ), так как для


его ядра Ax(λ, τ) = Kx(λ, τ) справедливо
Kx (λ, τ) = Kx∗ (τ, λ);

3) неотрицательно-определённый
( Ax ψ, ψ) = M[(x, ψ)2 ] ≥ 0 .

74
Учитывая указанные свойства, можно сделать следующие выво-
ды относительно уравнения (2.6.32):
1) существуют по крайне мере одна интегрируемая в квадрате
функция ϕ(t) и одно действительное число λ≠0, которые удовлетво-
ряют (2.6.32), и все собственные числа симметричных ядер вещест-
венны;
2) из (2.6.32) следует, что если ϕk(τ) является решением, то cϕk(τ)
есть так же решение, поэтому мы можем нормировать собственные
функции и при этом будет удовлетворяться следующее условие:
( Ax ϕk , ϕl ) = (αk ϕk , ϕl ) = αk δkl ;

3) собственные функции, соответствующие собственным значе-


ниям являются ортогональными;
4) существует не более как счётное бесконечное множество собс-
твенных значений ak и все они ограничены;
5) если корреляционная функция Kx(λ,τ) неотрицательно опре-
делена, т. е. для всех произвольных zi, zk ∑ Kx (λ, τ)zi zk ≥ 0 , то она
i,k
может быть разложена в следующий ряд (теорема Мерсера):

Kx (λ, τ) = ∑ λk ϕk (λ)ϕ∗k (τ), 0 ≤ λ ≤ T , 0 ≤ τ ≤ T ,
k =0

где сходимость ряда является равномерной для всех 0 ≤ λ, τ ≤ T;


6) если Kx(λ,τ) положительно определена, то собственные функ­
ции образуют полный ортогональный (ортонормальный) ряд и в
этом случае детерминированную функцию с конечной энергией
можно разложить в ряд по собственным функциям;
7) если Kx(λ,τ) не является положительно определённой, то собст­
венные функции не могут образовывать полный ортонормальный
ряд;
8) cумма собственных значений есть ожидаемое значение энер-
гии процесса на интервале [0, T], т. е. можно записать следующее
уравнение:
T  T ∞
M  ∫ x(t) dt  = ∫ Kx (t,t)dt = ∑ αk ,
2

 0  0 k =0

где αk = M xk xk∗  – дисперсия k-й спектральной компоненты;


9) при использовании полного базиса

75
T N − 2 
lim M  ∫ x(t) − ∑ xk ϕk (t) dt  = 0 ;
n→∞ 0 k =0 
 

10) собственные значения образуют счётную квадратично-сум-



мируемую ∑ αk < ∞ последовательность, они вещественны и не-
k =0
отрицательны, т. е. ak ≥ 0, и мы можем их расположить в порядке
убывания a0 ≥a1 ≥ a2.
Выражение (2.6.28) перепишем в следующем виде:
T N −
IN (t) = ∫ Kx (λ, λ)dλ − ∑ ( Ax ϕk ,ϕk ) . (2.6.33)
0 k =0

Выражение (2.6.33) с учётом (2.6.32) перепишем в следующем


виде:
∞ N − ∞
IN = ∑ αk (ϕk , ϕk ) − ∑ αk = ∑ αk .
k =0 k =0 k= N

Можно заключить, что N-мерное подпространство в L2σ [0, T], оп-


тимальное для представления реализации случайного процесса x(t)
на интервале t∈[0, T], натянуто на N собственных функций уравне-
ния
T

∫ Kx (λ, τ)ϕk (τ)dτ = αk ϕk (λ), 0 ≤ λ ≤ T . (2.6.34)


0

Базисные функции и собственные числа определяются из выра-


жения (2.6.32). При этом выбирают N собственных функций ϕk(λ)
интегрального уравнения, соответствующих N первым наиболь-
шим собственным числам.
Разложение случайного процесса, использующее оптимальный
базис ϕk(λ),
N −
x(t) = ∑ xk ϕk (t), t ≤T,
k =0

где коэффициенты определяются из выражения


T
xk = (x, ϕk ) = ∫ x(t)ϕ∗k (t)dt ,
0

76
называется разложением Карунена–Лоэва [2]. Разложение Каруне-
на–Лоэва есть частный случай разложения Фурье.
Коэффициенты этого разложения есть некоррелированные (ор-
тогональные) случайные величины, поскольку с учётом теоремы
Мерсера
TT
M xk xl∗  = M (x, ϕk )(x, ϕ∗l )  = ∫ ∫ Kx (λ, τ)ϕ∗k (λ)ϕ∗l (τ)dλdτ = αk δkl ,
00

где δkl – символ Кронекера. Если математическое ожидание сигна-


ла M[X(t)]≠0, то разложение Карунена-Лоэва можно представить в
следующем виде:
N −
x(t) = ∑ xk ϕk (t) + mk (t) . (2.6.35)
k =0

Достоинства разложения Карунена–Лоэва:


1) учитывая, что разложение Карунена–Лоэва есть частный слу-
чай разложения Фурье, то все достоинства последнего относятся и
к рассматриваемому разложению;
2) разложение Карунена–Лоэва имеет наилучшую сходимость из
всех рядов Фурье;
3) коэффициенты разложения Карунена–Лоэва являются некор-
релированными случайными величинами, а при нормальном зако-
не распределения сигнала X(t) – независимыми, что значительно
упрощает анализ и синтез линейных ИИС;
Оценка точности аппроксимации сигнала X(t) частичной суммой
разложения Карунена–Лоэва проще, чем при использовании дру-
гих рядов Фурье.
К недостаткам данной модели сигнала можно отнести:
1) сложность нахождения собственных функций и чисел из ин-
тегрального уравнения (2.6.32);
2) при изменении интервала разложения для одного и того же
сигнала собственные функции и числа также меняются;
3) линейная форма рядов при нелинейных преобразованиях сиг-
налов X(t) в ИИС мало пригодна.

2.6.4. Представление случайных сигналов


при помощи канонических разложений Пугачёва
Учитывая, что нахождение базиса разложения Карунена–Лоэва
является сложной задачей, применение этого разложения на прак-
тики вызывает определённые затруднения. С другой стороны, важ-
77
ное свойство разложения Карунена–Лоэва, определяемое некорре-
лированностью коэффициентов разложения значительно упрощает
анализ и синтез ИИС. В связи с этим В. С. Пугачевым была разрабо-
тана [9] теория построения моделей сигналов в виде канонических
рядов, где коэффициенты разложения являются некоррелирован-
ными случайными величинами, а базисные функции могут быть
определены значительно более простыми способами. При этом схо-
димость таких рядов хуже, чем у разложений Карунена–Лоэва.
Пусть имеется произвольный случайный процесс X(t), опре-
делённый на интервале времени t∈[0, T]. Представим этот процесс
на выбранном интервале в виде ряда

X(t) = ∑ Vk ϕk (t) + mx (t) , (2.6.36)
k = −∞

где M[X(t)] = mx(t) – математическое ожидание X(t); Vk, k = 0, ±1,


±2, … – коэффициенты канонического разложения, являющие-
ся некоррелированными центрированными случайными, в об-
щем случае, комплексными величинами, т. е. M[Vk Vl∗ ] = 0, если
k ≠ l и M[Vk Vl∗ ] = Dk , если k = l, k=0,±,±2,..., определяемые соот-
ношением
T 
Vk = ∫ X(t)ψ∗k (t)dt , (2.6.37)
0

где X(t) = X(t)−M[X(t)] – центрированное значение сигнала X(t);
ϕk(t) – координатные функции, которые определяются соотношени-
ем
T
ϕk (t) = ∫ Kx (t, τ)ψ k (τ)dτ , (2.6.38)
0

где Kx(t, t) – автокорреляционная функция случайного процесса


X(t), функции yk(t), k = 0, ±1, ±2, … можно выбирать произвольно,
соблюдая условия биортогональности
TT
0 , если k ≠ l,
M[Vk Vl∗ ] = ∫ ∫ Kx (t,t2 ) ψ∗k (t ) ψ l (t2 )dtdt2 =  (2.6.39)
00  Dk , если k = l .

Систему функций yk(t), k = 0, ±1, ±2, …, удовлетворяющих усло-


вию биортогональности, будем называть биортогональной относи-

78
тельно корреляционной функции Kx(t, t), или, иначе, порождаю-
щей.
Vkjk(t) называют элементарными случайными процессами.
Соотношения (2.6.36), (2.6.37) и (2.6.38) определяют каноничес-
кое разложение Пугачёва.
Если jk(t) = akyk(t), то разложение Пугачёва совпадает с разложе-
нием Карунена–Лоэва. Каноническое разложение Пугачёва содер-
жит в общем случае бесконечное число случайных величин и ряд
сходится медленно, что затрудняет расчёты на ЦВМ.
Найдём корреляционную функцию комплексного случайного
процесса, представленного соотношением (2.6.36), учитывая некор-
релированность коэффициентов Vk, Vn канонического разложения
при k≠n:
  ∞ ∞
Kx (t,t2 ) = M[X(t ) ⋅ X * (t2 )] = M[ ∑ Vk ⋅ϕk (t ) ∑ Vn∗ ⋅ϕ∗n (t )] =
k =−∞ n =−∞

∞ ∞ ∞ ∞
= M[ ∑ ∑ Vk Vl∗ϕk (t )ϕ∗n (t2 )] = ∑ ∑ ϕk (t )ϕ∗n (t2 )M[Vk Vn∗ ] =
k =−∞ n =−∞ k =−∞ n =−∞


= ∑ Dk ϕk (t )ϕ∗k (t2 ) . (2.6.40)
k =−∞

Соотношение (2.6.40) определяет каноническое разложение кор-


реляционной функции случайного процесса X(t). При t1 = t2 = t по-
лучаем из формулы (2.6.40) каноническое представление дисперсии
случайного процесса
∞ ∞
∑ Dk ϕk (t)ϕ∗k (t) = ∑ Dk ϕk (t)
2
Dx (t) = Kx (t,t) = . (2.6.41)
k =−∞ k =−∞

Все коэффициенты Dk≥0, k = 0, ±1, ±2, … . В случае использова-


ния ортонормальных коэффициентов


2
Dx (t) = ϕk (t) .
k =−∞

Таким образом, всякому каноническому разложению случай-


ного процесса X(t) (2.6.36) соответствует каноническое разложение
корреляционной функции этого процесса (2.6.40). Справедливо и
обратное утверждение.
К основным достоинствам канонического разложения Пугачёва
можно отнести:

79
1) коэффициенты Vk, k = 0, ±1, ±2, … разложения являются не-
коррелированными случайными величинами и при нормальном за-
коне распределения сигнала X(t) они также и независимы;
2) координатные функции проще найти, чем базисные функции
в разложении Карунена–Лоэва.
К недостаткам разложения Пугачёва относятся:
1) в общем случае плохая сходимость канонических рядов, что
требует большой вычислительной работы для определения порож-
дающих и координатных функций при учёте значительного коли-
чества членов канонического ряда;
2) отсутствуют простые оценки погрешностей аппроксимации
случайного процесса X(t) конечной суммой разложения Пугачёва
даже в пределах корреляционной теории, что создаёт неопределён-
ности при выборе числа членов ряда;
3) каноническая форма рядов в случае нелинейных преобразова-
ний сигнала X(t) мало пригодна.

2.6.5. Сравнительная характеристика


представлений случайных сигналов при помощи рядов
Все рассмотренные модели сигналов в виде рядов предназначены
в основном для анализа и синтеза линейных ИИС, т. е. когда приме-
ним принцип суперпозиции, и менее приспособлены при исследова-
нии нелинейных систем.
Использование указанных моделей сигналов в задачах анализа
и синтеза ИИС значительно упрощает алгоритмы обработки ин-
формации и расширяет класс задач, решаемых традиционными
методами. Это обеспечивается за счёт того, что достаточно сложная
модель случайного процесса X(t) заменяется с требуемой точностью
и достоверностью обработки сигналов квазидетерминированной мо-
делью сигнала в виде ряда.
Дискретные спектральные модели сигналов характеризуют
случайный процесс на интервале времени и поэтому могут быть
использованы как для точечных, так и для интервальных оценок
сигналов на выходе ИИС. В частности, они могут быть использова-
ны для получения оценок точности, достоверности, надёжности,
помехозащищённости и других характеристик систем, а также при
исследовании таких задач, как фильтрация, классификация, про-
гнозирование и интерполяция сигналов.
Ряды В. А. Котельникова, Карунена–Лоэва являются рядами
Фурье и обладают всеми достоинствами этих рядов.
С точки зрения сходимости предпочтительнее ряды Карунена–
Лоэва и затем обобщённые ряды Фурье.
80
Коэффициенты рядов Карунена–Лоэва и Пугачёва – некоррели-
рованные случайные величины, а при нормальном законе распреде-
ления сигнала X(t) являются независимыми случайными величи-
нами.
Общим недостатком данных моделей сигналов является отсутс-
твие простых оценок точности аппроксимации сигналов X(t) ука-
занными моделями даже в пределах корреляционной теории, что
создаёт неопределённости при выборе размерности спектра модели
для обеспечения требуемой точности.

2.7. Спектральное представление случайных сигналов

2.7.1. Частотное разложение стационарного


случайного процесса на конечном интервале времени
Рассмотрим стационарный случайный процесс X(t) с конечной
энергией, который определён на интервале времени −T≤ t≤T. Извест-
ны математическое ожидание mx = M[X(t)] и корреляционная функ-
ция K(τ) процесса, где −2T≤τ≤2T, так как t = t2− t1, а аргументы t1 и
t2 изменяются в пределах −T≤ t1≤T; −T≤ t2≤T.
Представим корреляционную функцию Kx(τ) на интервале
[–2T, 2T] в виде ряда Фурье, в котором в качестве ортогонального
базиса используем

ψ k (t) = e jωkt , k = 0, ±, ±2,...,


Kx (τ) = ∑ Dk e jω τ , k (2.7.1)
k =−∞
2π π
где ωk = k= k , k = 0, ±1, ±2, … .
4T 2T
Скалярное произведение рассматриваемых базисных функций
0, если k ≠ n ,
(ψ k , ψ n ) = 
 ψ k = 4T, если k = n .

Коэффициенты ряда Фурье определяются следующим соотно-


шением
2T

Dk = 2 ∫ Kx (τ)e − jωk τ dτ . (2.7.2)
ψk −2T

81
Принимая во внимание, что сопряжённая базисная функция
ψ*k = e − jωkt , и учитывая, что τ = t2− t1, получим

Kx (τ) = ∑ Dk e− jω t e jω t
k  k 2
. (2.7.3)
k =−∞

Сравнивая формулы (2.7.3) и (2.6.40), убеждаемся, что соотноше-


ние (2.7.3) определяет каноническое разложение корреляционной
функции случайного процесса X(t).
Каноническому разложению корреляционной функции (2.7.3)
соответствует каноническое разложение случайного процесса

X(t) = ∑ Vk e jω t + mx ,
k
(2.7.4)
k = −∞

где Vk, k = 0, ±1, ±2, … – некоррелированные случайные величины,


математические ожидания которых равны нулю M[Vk] = 0, а диспер-
сии Dk = M Vk Vk∗  равны коэффициентам Dk в соотношении (2.7.3).
Выражение (2.7.4) называется спектральным или частотным раз-
ложением стационарного случайного процесса X(t). Формула (2.7.4)
показывает, что частотное разложение стационарного случайного
процесса является частным случаем канонического разложения,
когда в качестве координатных функций используются гармоники
e jωkt . Характеристики стационарных случайных процессов Kx(τ),
Dk в данном случае есть функции целочисленных значений ωk.

2.7.2. Частотное представление стационарного случайного


процесса на бесконечном интервале времени.
Спектральная плотность стационарного
случайного процесса
Исследование стационарной ИИС в установившемся режиме при
подаче на её вход стационарного сигнала целесообразно, когда мож-
но пренебречь временем переходного режима. В этом случае анализ
и синтез ИИС значительно упрощается.
Рассмотрим корреляционную функцию стационарного случай-
ного процесса на бесконечном интервале времени путём предельно-
го перехода при T→∞.
Перепишем выражение (2.7.1) в следующем виде:

Dk jωk τ
Kx (τ) = ∑ e ∆ω , (2.7.5)
k =−∞ ∆ω
π
где ∆ω = ωk + − ωk = – расстояние между соседними гармониками.
2T
82
Обозначим
Dk 2T (2.7.6)
ST (ωk ) = = Dk .
∆ω π

Будем называть ST(ω) средней плотностью дисперсии стационар-


ного случайного процесса. Это есть дисперсия, приходящаяся на
единицу длины частотного интервала между соседними гармони-
ками.
Тогда, вводя обозначение (2.7.6), формулу (2.7.5) перепишем в
следующем виде:

Kx (τ) = ∑ ST (ωk )e jω τ ∆ω , k (2.7.7)
k =−∞

и используя выражение (2.7.2), получим



Kx (τ) = ∑ ST (ωk )e jω τ ∆ω , k (2.7.8))
k =−∞

Пусть T→∞. Тогда ∆ω→dω, ωk→ω, и выражения (2.7.7), (2.7.8)


можно представить в следующем виде:

jωτ
Kx (τ) = ∫ Sx (ω)e dω , (2.7.9)
−∞

 − jωτ
Sx (ω) = ∫ Kx (τ)e dτ ,
2π −∞
(2.7.10)

Dk
где Sx (ω) = lim ST (ωk ) = lim .
T →∞ ∆ω→0 ∆ω
Формулы (2.7.9), (2.7.10) впервые математически строго разрабо-
таны А. Я. Хинчиным. Эти формулы являются обратным и прямым
преобразованиями Фурье.
Смысл (2.7.9) заключается в том, что корреляционная функция
вещественного аргумента представляет собой сумму гармонических
составляющих с амплитудой, зависящей от ω, при этом произведе-
ние Sx(ω)dω есть бесконечно малая амплитуда каждой гармоники.
Таким образом, корреляционная функция может быть представле-
на суммой бесконечно малых гармонических колебаний, бесконеч-
но близких по частоте.
Функция Sx(ω) имеет смысл плотности распределения дисперсии
случайного процесса по частотам непрерывного спектра (дисперсия
амплитуд гармонических колебаний). Функция Sx(ω) называется

83
спектральной плотностью дисперсии стационарного случайного
процесса или просто спектральной плотностью стационарного слу-
чайного процесса.
Полагая в формуле (2.7.9) τ = 0, получим

dDx
Dx = Kx (0) = ∫ Sx (ω)dω, dω
= Sx (ω) .
−∞

Dx представляет собой сумму элементарных дисперсий S(ω)dω,


приходящихся на элементарный частотный интервал dω, прилега-
ющий к частоте ω.
Иногда бывает удобно использовать тригонометрическую форму
записи формул для корреляционной функции и спектральной плот-
ности действительного стационарного случайного процесса.
Используя формулы Эйлера и учитывая, что спектральная плот-
ность S(ω) и корреляционная функция K(τ) стационарного случай-
ного действительного процесса – чётные функции, соотношения
(2.7.8) и (2.7.9) можно представить в следующем виде:
∞ ∞
Kx (τ) = ∫ Sx (ω)cos ωτ dω + j ∫ Sx (ω)sin ωτ dω =
−∞ −∞

= 2 ∫ Sx (ω)cos ωτ dω , (2.7.11)
0
∞ ∞
 
Sx (ω) = ∫
2π −∞
Kx (τ)cos ωτ dτ − j ∫ Kx (τ)sin ωτ dτ =
2π −∞


π 0∫
= Kx (τ)cos ωτ dτ. (2.7.12)

Sx(ω) эргодического стационарного процесса называют спект-


ральной плотностью мощности процесса, а дисперсию эргодическо-
го центрированного случайного процесса X(t) можно найти следу-
ющим образом:
T 2
  
Dx = ∫
2T −T 
x(t)  dt .


Если x(t) есть реализация случайных флуктуаций напряжения
на концах проводника, то Dx – средняя мощность флуктуаций тока,
рассеиваемая на единичном сопротивлении этого проводника.

84
Формулы Хинчина для двух X(t) и Y(t) стационарных и стацио-
нарно связанных случайных процессов можно определить в следу-
ющем виде:

jωτ
Kxy (τ) = ∫ Sxy (ω)e dω , (2.7.13)
−∞


 − jωτ
Sxy (ω) = ∫ Kxy (τ)e dτ ,
2π −∞
(2.7.14)

где Kxy(τ) – взаимная корреляционная функция; Sxy(ω) – взаимная


спектральная плотность стационарных и стационарно связанных
случайных процессов X(t) и Y(t).

2.7.3. Белый шум


При исследовании статистических свойств ИИС важное значение
имеет определённый тип стационарного случайного физически не-
реализуемого процесса, обладающего достаточно простыми свойс-
твами, называемого белым шумом. Этот процесс при статистичес-
ком анализе и синтезе ИИС играет такую же роль, как дельта-фун-
кция при исследовании детерминированных характеристик ИИС.
Белым шумом называют стационарный случайный, чаще всего,
гауссовский процесс W(t), у которого спектральная плотность (рис.
2.14) Sw(ω) = c2 (рис. 2.14) постоянна при всех частотах.
S(ω)
c2

0 ω

Рис. 2.14. Спектральная плотность белого шума


Используя формулу (2.7.9) и учитывая, что спектральная плот-
ность белого шума Sw(ω) = c2, получим выражение для корреляци-
онной функции
∞ ∞

Kw (τ) = ∫ Sw (ω)e jωτ dω = 2πc2 jωτ
∫ e dω =
−∞
2π −∞
= 2πc2 ⋅ δ(τ) = Nw δ(τ) , (2.7.15)

85
где δ(τ) – дельта-функция; Nw = 2πc2 – интенсивность белого шума.
Математическое ожидание белого шума обычно M[W(t)] = 0. Дис-
персия белого шума
Dw = Kw (τ) τ=0 = 2πc2 δ(0) = ∞ . (2.7.16)

Как видно из соотношения (2.7.16), белый шум обладает беско-


нечной дисперсией, т. е. этот процесс физически нереализуем. На-
личие δ(τ) в выражении для корреляционной функции белого шума
обеспечивает важное свойство белого шума, заключающего в том,
что любые два ближайших значения белого шума некоррелирова-
ны, а учитывая нормальный закон распределения процесса, и не-
зависимы.
Белый шум является удобной математической абстракцией. При
условии, что эффективная полоса частот входного сигнала превос-
ходит практический диапазон частот работы реальной системы,
можно считать с определённой точностью, что входной сигнал явля-
ется белым шумом.

2.7.4. Понятие формирующего фильтра


Формирующим фильтром называют динамическую систему, ко-
торая при входном сигнале в виде белого шума W(t) имеет на вы-
ходе случайный процесс X(t) с заданными статистическими харак-
теристиками (рис. 2.15). В качестве таких характеристик обычно
используются математическое ожидание mx(t) и корреляционная
функция Kx(t1, t2). Задача нахождения формирующего фильтра со-
стоит в определении его оператора At{ } на основе заданных mx(t) и
Kx(t1,t2) выходного сигнала X(t) и статистических характеристик
входного белого шума W(t) – интенсивности белого шума Nw = 2πc2
(обычно значение спектральной плотности c2 полагают равным еди-
нице) и математического ожидания mx, если оно не равно нулю. По-
нятие формирующего фильтра оказывается удобным и полезным
при рассмотрении задач статистического анализа и синтеза ИИС,
так как упрощает методы их исследования. Это достигается при-
соединением к исследуемой системе формирующего фильтра. По-
лученная таким образом система называется эквивалентной систе-
мой. Построение формирующего фильтра необходимо также и при
моделировании случайных процессов. Учитывая аналитические
преимущества линейных систем, предпочтительнее использовать
линейные формирующие фильтры. Среди случайных процессов,
допускающих строгое решение проблемы формирующего фильтра,
находится класс стационарных случайных процессов с дробно-
86
­ ациональными спектральными плотностями. Для определения
р
линейного формирующего фильтра используется соотношение, ус-
танавливающее связь между спектральными плотностями входно-
го и выходного сигналов.
W(t) Формирующий X(t)
фильтр

Рис. 2.15. Схема получения сигнала с использованием формирующего филь-


тра
Пусть X(t) – случайный стационарный коррелированный про-
цесс с известной спектральной плотностью Sx(ω). Известна также
спектральная плотность белого шума c2. Требуется найти частотную
F(jω) характеристику формирующего фильтра, преобразующего бе-
лый шум в выходной сигнал X(t). Известно (см. гл. 3), что
2
Sx (ω) = F ( jω) c2 , (2.7.17)

тогда
2 Sx (ω) Φ( jω) Φ(− jω) (2.7.18)
F ( jω) = 2
= ⋅ .
c c c

Следовательно, для нахождения частотной характеристики фор-


S (ω)
мирующего фильтра необходимо выражение x 2 представить в
c
виде произведения двух комплексно-сопряжённых сомножителей
и взять в качестве искомого тот, который имеет нули и полюсы в
левой полуплоскости переменной jω, т. е. соответствует минималь-
но-фазовой устойчивой системе. Для любой дробно-рациональной
чётной функции Sx(ω) эти операции могут быть осуществлены и
формирующий фильтр определён.
Процедура представления спектральной плотности Sx(ω) в виде
двух комплексно-сопряжённых функций называется факторизаци-
ей
2
Sx (ω) = Φ( jω) ⋅ Φ(− jω) = Φ( jω) .

Пример. Определить частотную характеристику формирующе-


го фильтра для получения стационарного случайного процесса со
σ2 α
спектральной плотностью Sx (ω) = (этой спектральной
π(ω2 + α2 )
87
плотности на основании формулы Хинчина соответствует корреля-
ционная функция Kx(τ) = σ2e−α|τ|) из белого шума со спектральной
плотностью c2 = 1.
На основании (2.7.18) и учитывая, что ω2 = −(jω)2:

σ2 α  σ2 α 
Sx (ω) = Φ( jω) ⋅ Φ(− jω) = ⋅ ,
π jω + α π − jω + α

откуда в соответствии (2.7.18) получим


K
F ( jω) = ,
Tjω + 
 σ2 α 
где K = , T= . Таким образом, частотная характеристика
α π α
формирующего фильтра соответствует апериодическому звену.

2.8. Интегральные представления сигналов

2.8.1. Общие основы интегральных преобразований


Для точного представления сигналов x(t), определенных в интер-
вале −∞< t<∞ и принадлежащих L2(−∞, ∞), широко используются
различные интегральные преобразования, формирующие соответс-
твующие непрерывные интегральные представления. Интеграль-
ные представления сигналов обычно рассматриваются на основе
аналогии или обобщения дискретных представлений. Такие пред-
ставления, как Фурье, Лапласа и Гильберта, широко используемые
в теории сигналов, можно легко интерпретировать с рассматрива-
емой точки зрения. Непрерывный аналог рассматриваемого в под-
разд. 2.6.1. конечномерного представления на основе ортонормаль-
ного базиса получается, если заменить в (2.6.4) дискретный индекс
i (номер базисной функции) континуальной переменной s∈S, где S
обычно представляет собой некоторый интервал действительной
оси. Базис теперь выражается функцией U(t, s), зависящей от двух
переменных, и формула (2.6.4) принимает вид
x(t) = ∫ X(s)U(t, s)ds, t ∈ T , (2.8.1)
S

где X(s) есть непрерывное представление x(t) аналогичное α в (2.6.4),


а t может быть любым в интервале (−∞, ∞), т. е. T = (−∞, ∞).
Функция X(s) – это функция «плотности», характеризующая
распределение x(t) относительно U(t, s) на различных участках
88
области S. Принимая обычную для интегральных уравнений тер-
минологию, будем называть U(t, s) базисным ядром интегрального
преобразования, используемого для представления сигнала. Про-
должая аналогию, X(s), аналогом которой в дискретном случае яв-
ляется выражение (2.6.5), можно представить для каждого значе-
ния s в виде скалярного произведения
X(s) = ∫ x(t)U* (s,t)dt , (2.8.2)
T
где функция U*(s, t) является самосопряженным базисным ядром,
т. е.

U(t, s) = U* (s,t) , (2.8.3)


где * – обозначает комплексно-сопряженную функцию.
Соотношения (2.8.1) и (2.8.2) рассматриваются совместно как
пара преобразований – обратное и прямое соответственно. Подстав-
ляя (2.8.2) в (2.8.1) и изменив порядок интегрирования, получим ус-
ловие, которому должны удовлетворять сопряженные ядра:
x(t) = ∫ ∫ x(τ)U* (s, τ)U(t, s)dτds = ∫ I (t, τ)x(τ)dτ = fI (x) , (2.8.4)
ST T
где fI(x) – функционал выборки (интеграл Дюамеля),
I (t, τ) = ∫ U(t, s)U* (s, τ)ds . (2.8.5)
S
Выражение (2.8.5) – линейный функционал от τ при фиксиро-
ванном t, который не ограничен (или не непрерывен) и, следователь-
но, не принадлежит к гильбертову пространству H2(T); fI(X) можно
интерпретировать как линейный функционал, используя понятие
δ-функции Дирака δ(t−τ):
fI (x) = x(t) = ∫ δ(t − τ)x(τ)dτ, t ∈ T ,
T
где самосопряженное ядро U*(s, τ) удовлетворяет условию

∫ U(t,s)U
*
(s, τ)ds = δ(t − τ) . (2.8.6)
S

Аналогичным образом, подстановка (2.8.1) в (2.8.2) приводит к


дополнительному условию

∫U
*
(s,t)U(t, σ)dt = δ(s − σ) , (2.8.7)
T

89
которому должны удовлетворять U(t, s) и U*(s, t), чтобы быть сопря-
женными базисными ядрами.
Соответствующие величины для дискретных и непрерывных
представлений сведены в табл. 1.
Таблица 1
Дискретное Непрерывное

x(t) = ∫ X (s)U(t, s)ds, t ∈ T


x(t) = ∑ αiUi (t), t ∈ T
S

αi = (x,Ui ), i = , 2, ... X (s) = ∫ x(t)U * (s, t)dt, s ∈ S


T

 U(t, s)U * (s, τ)ds = δ(t − τ)


(Ui ,Uj ) = δi j , i = , 2, ...  S∫
 *
 ∫ U (s, t)U(t, σ)dt = δ(s − σ)
T

Из условия (2.8.6) и (2.8.7) следует, что одна из функций U или


U* (или обе) должны быть сингулярными, т. е. они могут содержать
δ-функции и их производные или быть неинтегрируемыми, как для
преобразования Фурье. Таким образом, пространства H2(T) и H2(S),
которым должны принадлежать функции U и U*, должны быть рас-
ширены. Самосопряженные базисные ядра обладают тем свойством,
что преобразование функций x(t), принадлежащих H2(T), всегда по-
рождает функции от X(s), принадлежащие H2(S).
Пусть X(s)∈H2(S) и Y(s)∈H2(S) – преобразования x(t)∈H2(T) и
y(t)∈H2(T) соответственно. Тогда, используя (2.8.3) и (2.8.2), полу-
чим
( X, Y ) = ∫ X(s)Y * (s)ds = ∫ ∫ ∫ x(t)y* (t)U* (τ, s)U(s, τ)dτdtds .
S STT

Учитывая, что U – самосопряженное ядро, на основании (2.8.3)


получим
( X, Y ) = ∫ ∫ x(t)y* (τ)δ(t − τ)dtdτ = ∫ x(t)y* (t)dt = (x, y) . (2.8.8)
TT T

Таким образом, величина скалярного произведения не изменя-


ется при переходе из области t в область s. Этим свойством обладает
преобразование Фурье.

90
2.8.2. Преобразование Гильберта
При обработке информации часто пользуются понятиями низ-
кочастотный и узкополосный сигналы. Будем называть сигнал
низкочастотным или узкополосным, если преобразования этих
сигналов соответственно концентрируются около частоты нулевой
и удалённой от начала координат. При этом часто возникает необхо-
димость при моделировании узкополосную систему эквивалентно
смоделировать с помощью двух взаимно связанных низкочастот-
ных систем. Исходным пунктом для построения необходимого нам
низкочастотного представления является понятие аналитического
сигнала, соответствующего вещественному узкополосному сигналу
x(t). Аналитический сигнал – это комплексный сигнал, который
образуется, если к вещественному сигналу x(t) добавить в качестве
мнимой части его преобразование Гильберта xˆ (t) :

z(t) = x(t) + jxˆ (t) .


Пара преобразований Гильберта определяется следующими со-
отношениями [2]:

 x(t)
xˆ (s) = ∫ s − t dt ,
π −∞
(2.8.9)


 xˆ (s)
x(t) = ∫ s − t ds .
π −∞
(2.8.10)

В обоих случаях интеграл понимается в смысле главного значе-


ния по Коши, т. е. в (2.8.10)
∞ s −ε ∞

∫ ⇒ lim(
ε→∞ ∫ + ∫ ), ε > 0 .
−∞ −∞ s +ε

Базис Гильберта или ядро интегрального преобразования (2.8.9)


определяется соотношением
− (2.8.11)
Ψ (t − s) = ,
π(t − s)

а сопряжённый базис Гильберта



Ψ * (s − t) = . (2.8.12)
π(s − t)

91
Сравнивая (2.8.11) и (2.8.12 ) с (2.8.3), мы видим, что базис само-
сопряжённый, так что

(xˆ , yˆ ) = (x, y) .
Интересное и полезное свойство преобразования Гильберта со-
стоит в том, что преобразования Фурье от пары преобразований
Гильберта просто связаны друг с другом:

Sˆ (f ) = [− j sign f ]S(f ), S(f ) = [ j sign f ]Sˆ (f ) . ( 2.8.13)


Эта связь чаще всего используется для образования комплексно-
го аналитического сигнала z(t) = x(t)+j xˆ (t), имеющего односторон-
нее преобразование Фурье.
В соответствии с (2.8.13)
Z(f) = 2S(f) при f >0,

Z(f) = 0 при f<0.


Учитывая, что для аналитического сигнала справедливо

xˆ = x и (x, xˆ ) = 0 ,
получим следующее полезное соотношение

z = 2 x .
Наиболее важным свойством аналитического сигнала является
то, что преобразование Фурье от него – «одностороннее», т. е. отлич-
но от нуля только при положительных частотах. Согласно (2.8.13)
имеем

Z (f ) = 2S(f ) при f >0 ,

Z(f) = 0 при f<0 . (2.8.14)


Под огибающей ω(t) понимается модуль аналитического сигнала

ω(t) = z(t) = x2 (t) + xˆ 2 (t) . (2.8.15).


При достаточной узкополосности сигнала эта величина близка
к напряжению на выходе детектора огибающей. Для полного опи-
сания сигнала кроме огибающей необходимо знать и фазу сигнала
z(t). Информация о фазе сигнала z(t) (z(t) = z(t) e jϕ(t) ) содержится в

92
мнимой части логарифма z(t). С точки зрения физической интерпре-
тации часто более полезна производная фазы, чем она сама.
Определим мгновенную частоту fi(t) произвольного сигнала сле-
дующим образом:
 d    z(t) 
fi (t) = Im  ln z(t)  = Im  =
2π  dt  2π  z(t) 

= [xˆ (t)x(t)− x (t)xˆ (t)] . (2.8.16)
2πω2 (t)
Эта функция приблизительно соответствует выходному сигналу
частотного дискриминатора.
Теперь, чтобы получить эквивалентное низкочастотное пред-
ставление сигнала, необходимо сдвинуть преобразование Фурье z(t)
так, чтобы оно оказалось центрированным около нулевой частоты
и представляло собой низкочастотный сигнал. Полагаем по опреде-
лению
Γ(f ) = Z (f + f0 ) , (2.8.17)

так что

γ(t) = z(t)e − j2πf0t , (2.8.18)

а исходный вещественный сигнал x(t) связан с комплексным сигна-


лом γ(t) соотношением

x(t) = Re[γ(t)e j2πf0t ] . (2.8.19)


Сигнал γ(t) называется комплексной огибающей сигнала x(t). Со-
гласно (2.8.19) узкополосный сигнал следующим образом выража-
ется через вещественную и мнимую части γ(t):
x(t) = u(t)cos 2πf0t−v(t)sin 2πf0t , (2.8.20)
где
γ(t) = u(t)+jv(t) . (2.8.21)
Вещественные низкочастотные сигналы u(t) и v(t) называются
соответственно синфазной и квадратурной компонентами узкопо-
лосного сигнала. Очевидно, огибающая есть просто γ(t) и не зависит
от выбора f0:

ω(t) = z(t) = γ(t) = u2 (t) + v2 (t) . (2.8.22)

93
Мгновенная частота выражается через комплексную огибаю-
щую следующим образом:
  γ (t) 
fi (t) = f0 + Im  . (2.8.23)
2π  γ(t) 
Во многих случаях частоту f0 выбрать нетрудно. Например, для
модулированного синусоидального сигнала естественно и удобно
взять f0 равной частоте немодулированного несущего колебания. В
других случаях f0 можно выбрать более или менее произвольно или
так, чтобы минимизировать ширину полосы Γ(f). Один из способов
такого рода состоит в выборе в качестве f0 «центра тяжести» вещес-
твенной положительной функции |Z(f)|2. Такое значение минимизи-
рует величину

2
∫ (f − f0 )
2
Z (f ) df .
0

Положив производную по f0 равной нулю, найдём



2
∫ f Z (f ) df
 ( j2πfZ, Z )
0
f0 = ∞
= . (2.8.24)
2 2πj ( Z, Z )
∫ Z (f ) df
0

Применяя к (2.8.24) равенство Парсеваля (2.8.8), получим

 ( Z , Z )  (x, xˆ )
f0 = = .
2πj Z 2 2π x 2 (2.8.25)

Такое определение центральной частоты допускает также фи-


зическую интерпретацию: f0 есть взвешенное среднее по времени
мгновенной частоты. Действительно, из (2.8.16) и (2.8.25) с учётом
(2.8.15) находим
∞ ∞

∫ ω2 (t)fi (t)dt = ∫ [xˆ (t)x(t) − x (t)xˆ (t)]dt =
2π −∞
−∞


= (x, xˆ ) = 2 x f0 .
2
(2.8.26)
π
Замечая, что согласно (2.8.15)
ω2 (t) = x2 (t) + xˆ 2 (t) ,

94
и, следовательно,
2 2 2 2
ω = x + xˆ =2 x . (2.8.27)

Объединяя (2.8.26) и (2.8.27), можно привести определение сред-


ней частоты f0 к интуитивно подходящей форме средневзвешенной
по огибающей

ω2 (t)
f0 = ∫ ω
2
fi (t)dt .
−∞

2.8.3. Преобразование Фурье


Пусть базисные ядра (2.8.3) имеют вид

U(s,t) = e j2πst , U* (s,t) = e − j2πst , (2.8.28)


для T = (−∞, ∞) и S = (−∞, ∞). Тогда они будут порождать пару пре-
образований Фурье. Известно, что для обобщенной функции имеет
место следующее предельное соотношение:
W 2 πW

∫ e j2πst ds = lim e jωt dω =
W →∞ 2π ∫
lim
W →∞
−W −2 πW
sin2πWt
= lim = δ(t) , (2.8.29)
W →∞ πt
где ω = 2πs.
Из выражения (2.8.29) ясно, что функции (2.8.28) удовлетворя-
ют требованиям (2.8.6) и (2.8.7), предъявляемым к сопряженным
базисным ядрам. Параметр s характеризует частоту каждой базис-
ной функции и обычно обозначается f. Используя это обозначение,
запишем пару преобразований Фурье (прямое и обратное соответ­
ственно)
∞ ∞
X( jω) = ∫ x(t) e − jωt dt = ∫ x(t) e
− j 2 πft
dt = X(f ) , (2.8.30)
−∞ −∞

∞ ∞

x(t) = ∫ X( jω)e jωt dω = ∫ X(f )e j2πft df . (2.8.31)
2π −∞ −∞

95
Функция X(jω) называется спектральной плотностью или спект-
ром сигнала x(t). X(jω) в общем случае является комплексной функ­
цией частоты ω.
Сопоставляя (2.8.28) с (2.8.3), видим, что базис самосопряжен-
ный и, следовательно, согласно (2.8.27)

( X, Y ) = (x, y) . (2.8.32)
Это соотношение известно как равенство Парсеваля при непре-
рывном представлении сигнала x(t), которое часто применяется для
установления частотно-временной двойственности, дуальности.
Предполагая, что условия Дирихле применительно к x(t) выпол-
няются, достаточным условием применимости преобразования Фу-
рье к реализации сигнала x(t) является ее абсолютная интегрируе-
мость

∫ x(t) dt < ∞ . (2.8.33)


−∞
Однако использование δ-функции и способа, основанного на вве-
дении «множителя сходимости», позволяет расширить класс функ-
ций, к которым применимы преобразования Фурье.
При использовании способа, основанного на введении «множите-
ля сходимости», неинтегрируемые по модулю функции, такие как
единичный скачок, функция знака и т. д., заменяются экспоненци-
альными импульсами e−ct, c >0, для которых условие (2.8.33) вы-
полняется и спектр легко определяется, а затем производится пре-
дельный переход при c → 0. Ядра интегральных преобразований ejωt
и e−jωt являются комплексно-сопряженными, т. е. базис представле-
ния является самосопряженными, и, следовательно, справедливо
равенство Парсеваля (2.8.32)
∞ ∞ ∞
  2 2
∫ X( jω)X ( jω)dω = 2π ∫ X( jω) dω = ∫ x(t) dt = Э ,
*
(2.8.34)
2π −∞ −∞ −∞

где Э – энергия сигнала.


Таким образом, энергия сигнала может быть определена путем
интегрирования (суммирования) квадрата модуля сигнала во вре-
менной области или квадрата модуля спектра в частотной области.
Используя то, что e −jωt = cos ωt−jsin ωt, соотношение (2.8.30)
можно представить в виде
X( jω) = A (ω) − jB(ω) = X( jω) e jθ( ω) , (2.8.35)

96
∞ ∞
где A (ω) = ∫ x(t)cos ωt dt, B(t) = ∫ x(t)sin ωt dt .
−∞ −∞
Модуль и аргумент спектра определяются выражениями

X( jω) = A (ω)2 + B(ω) , θ(ω) = − arctg [B(ω) A (ω) ]. (2.8.36)


2

Первое из этих выражений можно рассматривать как амплитуд-


ный, а второе – как фазовый сплошные спектры непериодического
сигнала x(t). Как и в случае ряда Фурье, |X(jω)| является четной, а
θ(ω) – нечетной функцией частоты ω. На основании формулы (2.8.35)
нетрудно привести интегральное преобразование (2.8.31) к тригоно-
метрической форме. Имеем

 j ( ωt +θ( ω))
x(t) = ∫ X( jω) e
2π −∞
dω =

∞ ∞
 
= ∫
2π −∞
X( jω) cos(ωt + θ(ω))dω + j ∫ X( jω) sin(ωt + θ(ω))dω . (2.8.37)
2π −∞
Из чётности модуля и нечётности фазы следует, что подынтег-
ральная функция в первом интеграле является чётной, а во вто-
ром – нечётной относительно ω. Следовательно, второй интеграл
равен нулю и окончательно


x(t) = ∫ X( jω) cos(ωt + θ(ω))dω =
2π −∞


π 0∫
= X( jω) cos(ωt + θ(ω))dω. (2.8.38)

Основные соотношения между сигналами и их спектрами даны


в табл. 2.
Таблица 2
Соотношения для сигналов Соотношения для спектров
x(t) = x(−t) X ( jω) = X (ω) = X (−ω)

x(t) = ∑ λ k xk (t) X ( jω) = ∑ λ k Xk ( jω)


k k

x2 (t) = x (t − t0 ) X2 ( jω) = e − jωt0 X ( jω)

x2 (t) = x (mt)
  ω
X2 ( jω) = X j
m  m 

97
Окончание табл. 2
Соотношения для сигналов Соотношения для спектров
dx (t)
x2 (t) =  X2 ( jω) = jω X ( jω)
dt
t ∞

x2 (t) = ∫ x (τ)dτ, ∫ x (τ)dτ = 0 X2 ( jω) =

X ( jω)
−∞ −∞



x(t) = y(t) z(t) X ( jω) = ∫ Y ( jv) Z( j(ω − v))dv
2π −∞

x(t) = ∫ y(τ) z(t − τ)dτ X ( jω) = Y ( jω) Z ( jω)
−∞

x2 (t) = X (ω) ω=t = X (t), x2 (t) = x2 (−t) X2 (ω) = 2π x (t) t =ω = 2π x (ω)

2.9. Представление сигналов в пространстве состояний


2.9.1. Построение модели сигнала в пространстве состояний
Эффективным при обработке информации на ЦВМ является спо-
соб представления сигналов в пространстве состояний [7]. Особенно
он эффективен при исследовании свойств линейных систем, так как
он не делает различия в описании одномерных и многомерных сис-
тем и позволяет более полно исследовать динамические особенности
систем. Согласно этому методу сигнал описывается системой диф-
ференциальных и алгебраических уравнений, в правые части ко-
торых входят некоторые элементарные функции времени (входные
возмущения). В векторной форме эта система уравнений имеет вид
dx(t)
= f (x(t)) + h(w(t),t) , (2.9.1)
dt

y(t) = c(x(t),t) + d(w(t),t) , (2.9.2)


где y(t) – N-мерный векторный сигнал; x(t) – m-мерный вектор не-
зависимых вспомогательных переменных, называемых переменны-
ми состояния; w(t) – l-мерный вектор входных возмущений; f, h, c,
d – известные вектор-функции. В качестве wi(t), i = 1, …, l обычно
используют простейшие функции: при описании детерминирован-
ных сигналов – δ-функцию Дирака или единичную функцию 1(t),
при описании случайных сигналов – белый шум. При этом, чтобы

98
все переменные состояния xi, i = 1, …, m были непрерывными фун-
кциями времени, уравнения (2.9.1) и (2.9.2) должны быть составле-
ны в такой форме, чтобы в них не входили призводные возмущений
wi(t), i = 1, …, l. Дифференциальное уравнение (2.9.1) называется
уравнением переменных состояния, а алгебраическое соотношение
(2.9.2) – выходным уравнением. Оно устанавливает связь между
вектором переменных состояния x(t) и y(t). Область определения
вектора x(t) носит название пространства состояний. С физической
точки зрения уравнения (2.9.1) и (2.9.2) представляют собой описа-
ние формирующего фильтра. На выходе формирующего фильтра
образуется искомый сигнал y(t) при подаче на его вход воздействия
w(t). В зависимости от типа сигнала w(t) уравнения формирующего
фильтра (2.9.1) и (2.9.2) могут принимать различный вид. В частнос-
ти, линейный стационарный формирующий фильтр с постоянными
параметрами описывается уравнениями
dx(t)
= Fx(t) + Hw(t) , (2.9.3)
dt

y(t) = Cx(t) + Dw(t) , (2.9.4)


F, H, C, D – прямоугольные матрицы коэффициентов.
Заметим, что один тот же сигнал y(t) может быть получен на
выходе формирующих фильтров различной структуры и при раз-
личных видах воздействия w(t). Однако при выборе формирующего
фильтра (т. е. переменных состояния x(t) и типа входного воздейс-
твия w(t)) необходимо обеспечить управляемость и наблюдаемость
этого фильтра. Фильтр является управляемым, если можно найти
какое-либо воздействие w(t), которое за конечное время переведёт
его из одного заданного состояния в другое. Наблюдаемым назы-
вают такой фильтр, для которого значения переменных состояния
можно получить исследованием выходного сигнала y(t).
Рассмотрим переход к уравнениям в пространстве состояний для
одномерной системы, описываемой простейшим дифференциаль-
ным уравнением вида
n
d i y(t)
∑ ai (t) dti
= x(t) (2.9.5)
i =0

со следующими начальными условиями:

d i y(t)
= yi0 , i = 0,n − . (2.9.6)
dti t =t0

99
Осуществим переход от уравнения (2.9.5) к системе n уравне-
ний первого порядка. Введём n новых независимых переменных
zi, i = 1, …, n по следующим формулам:
z = y , 
dy(t) 
z2 = , 
dt 
 (2.9.7)


dn −y(t) 
zn = . 
dtn − 
Дифференцируя каждое из равенств (2.9.7) и последовательно
подставляя в каждое предыдущее соотношение последующее, по-
лучим
dz (t) 
= z2 (t) , 
dt

dz2 (t)
= z3 (t) , 
dt  (2.9.8)
 

dzn − (t) 
= zn . 
dt 
Дифференцируя последнее из равенств (2.9.8) и подставляя в
dn y(t)
правую часть полученной формулы вместо выражение из
dtn
уравнения (2.9.5), получим следующее соотношение
n −
dzn (t)  d i y(t)
= (x(t) − ∑ ai (t) ).
dt an (t) i =0 dti

Подставив в правой части последней формулы вмес-


d i y(t)
то производных , i = 0,n −  их обозначения, определя-
dti
емые формулами ( 2.9.7), получим уравнение
dzn (t) a (t) a (t) a (t) 
= − 0 z (t) −  z2 (t) − ... − n − z (t) + x(t) . (2.9.9)
dt an (t) an (t) an (t) an (t)
Уравнения (2.9.8) и (2.9.9) представляют собой систему диффе-
ренциальных уравнений первого порядка относительно неизвест-
ных функций z1(t), z2(t), …, zn(t).
Используя векторно-матричную форму записи, перепишем сис-
тему (2.9.8) – (2.9.9) в следующей форме:

100
dz(t)
= F (t)z(t) + Γ(t)x(t) ,
dt (2.9.10)
y(t) = Η(t)z(t) ,
где z(t) – n-мерный вектор вида
z (t)
z2 (t)
z(t) = ,

zn (t)
F(t), Γ(t), H(t) – матрицы вида
0  0 0
0
0 0  0
0
   
F (t) = , Γ(t) =  , (2.9.11)
0 0  

a (t) a (t) a (t)
− 0 −   − n − an (t)
an (t) an (t) an (t)
H(t) = H =  0  0 .
Заметим, что второе из равенств (2.9.10) определяет связь выхода
системы y(t) с вектором функций z(t). Начальные условия (2.9.6) для
уравнения (2.9.5) согласно обозначениям (2.9.11) определяют началь-
ные значения вектора z(t) в момент t = t0, т. е. полностью определяют
начальное условие z(t0) = z0 для векторного уравнения (2.9.10).
Уравнения системы вида (2.9.10) и называют уравнениями в про-
странстве состояний. Вектор z(t) называется вектором состояния. Раз-
мерность его совпадает с порядком дифференциального уравнения
системы. Компоненты этого вектора представляют собой совокупность
величин, полностью определяющих состояние системы как в данный
момент времени, так и во все последующие, поскольку играют роль на-
чальных условий для всего будущего движения системы.
Итак, будем определять состояние системы вектором z(t) с компо-
нентами z1(t), z2(t), …, zn(t). Множество этих векторов составляет про-
странство состояний, которое может рассматриваться как абстрак-
тное линейное n-мерное евклидово пространство. Набор n линейно-
независимых векторов в этом пространстве образует базис системы
координат. Каждая координата вектора z(t) представляет собой про-
екцию вектора состояния на соответствующий вектор базиса.
Рассмотрим для более сложного дифференциального уравнения
динамической системы вида
101
n
d i y(t) m
d i x(t)
∑ ai (t) dti
=∑ bi (t)
dti
( 2.9.12)
i =0 i =0

иной способ перехода к описанию в пространстве состояний.


В частном случае уравнения второго порядка пространства со-
стояния представляет собой фазовую плоскость, а параметры состо-
яния – фазовые координаты (положение и скорость). Поэтому иног-
да и в n-мерном пространстве компоненты вектора состояния на-
зывают координатами. Заметим, что существует принципиальное
различие в содержании таких понятий, как вход и выход системы
и параметры состояния. Вход и выход системы являются конкрет-
ными физическими величинами, в то время как вектор состояния,
вообще говоря, представляет собой абстрактную характеристику
системы, т. е. физическая природа фазовых координат не сущест-
венна. Различный способ получения уравнения (2.9.10) по уравне-
нию (2.9.12) даёт для одного и того же вектора состояния различные
системы уравнений для фазовых координат, что связано с выбором
того или иного базиса в пространстве состояний.
Введём новые переменные, опуская аргумент t у соответствую-
щих функций zi, i = 1, …, n следующим образом:
zn = an y , 

dy 
zn − = an −y + an ,
dt 
 

dy dn − m y 
zm = am y + am+ + ... + an n −m − bm x , 
dt dt 

dy dn −m+y dx  (2.9.13)
zm− = am−y + am + ... + an n −m+ − bm x − bm − bm−x , 
dt dt dt

 
n −2 m −2 m −3 
dy d y d x d x
z2 = a2 y + a3 + ... + an n −2 − bm m−2 − bm− m−3 − ... − b2 x ,
dt dt dt dt 
n − m −

dy d y d x dx 
z = ay + a2 + ... + an n − − bm m− − ... − b2 − bx . 
dt dt dt dt 

Дифференцируя обе части первого из уравнений (2.9.13) и под-


ставляя во второе, получим

zn − = an −y + zn .

102
Проделаем аналогичную операцию с каждой последующей па-
рой уравнений.
В результате система (2.9.13) приведётся к виду
zn = an y , 

dzn 
zn − = an −y + an ,
dt 
 

dzm + 
zm = am y + − bm x , 
dt 
dz  (2.9.14)
zm − = am −y + an m − bm−x , 
dt 
 
dz3 
z2 = a2 y + − b2 x , 
dt 
dz2 
z = ay + − bx . 
dt 
Дифференцируя обе части последнего равенства в (2.9.14) и учтя
уравнение (2.9.12), получим
dz
= b0 x − a0 y . (2.9.15)
dt
Выразив y через zn из первого уравнения в (2.9.14) и подставив
его во все последующие уравнения в (2.9.14) и (2.9.15), придём к сле-
дующей системе уравнений первого порядка:
dz a 
= − 0 zn + b0 x , 
dt an 
dz2 a 
= z − zn + bx , 
dt an 
 

dzm + am 
= zm − zn + bm x ,  (2.9.16)
dt an 
dzm +2 a 
= zm + − m + zn , 
dt an 
 

dzn an − 
= zn − − zn . 
dt an 
103
Система уравнений (2.9.16) может быть записана в векторно-мат-
ричной форме (2.9.10), где z(t) – n-мерный вектор состояния с компо-
нентами z1, z2, …, zn, а матрицы F, Γ имеют вид
a0
0 0  −
an b0
a b
 0  −
an 
F= a2 , Γ= bm . (2.9.17)
0  0 −
an 0
 
   
a 0
0 0   − n −
an
В частном случае, когда уравнение (2.9.12) вырождается в урав-
нение (2.9.5), матрица из (2.9.17) принимает вид
T
Γ=  0  0 .

Сопоставляя в этом случае равенства (2.9.16) с равенствами


(2.9.8) (2.9.9), видим, что для одного и того же уравнения (2.9.5)
можно получить различные уравнения в пространстве состояний.
Это вызвано тем, что уравнения (2.9.16) и (2.9.8), (2.9.9) записаны
в разных базисах. Если фазовые координаты, определяемые соот-
ношениями (2.9.8), имеют определённую физическую сущность
(это выходной сигнал и его производные), то фазовым координатам,
введённым формулами (2.9.16), трудно приписать какую-либо фи-
зическую природу. Если порядок m полинома в правой части урав-
нения (2.9.12) равен порядку n полинома левой части, то первое из
обозначений (2.9.13) запишется в виде
zn = any−bnx.
Ход дальнейших преобразований не изменится, только соотноше-
ние для выхода будет иметь вид
 b
y= zn + n x ,
an an

следовательно, в общем случае при m = n второе из равенств (2.9.10)


следует записывать в форме
y = Hz+Cx,
104
 bn
H= 0  0 , C= .
an an

В дальнейшем будем предполагать, что рассматриваются урав-


нения, для которых m < n, что в стационарном случае соответству-
ет динамическим звеньям, передаточные функции которых имеют
степень числителя меньше степени знаменателя.

2.9.2. Представление случайных процессов


в пространстве состояний
Случайные процессы, которые могут быть описаны в пространс-
тве состояний, относятся к широкому классу марковских случай-
ных процессов. Часто при исследовании информационно-измери-
тельных систем модель сигнала x(t) бывает представлена в виде
случайного гауссовского процесса.
Рассмотрим скалярный сигнал x(t), представляющий собой ста-
ционарный гауссовский центрированный случайный процесс, спек-
тральная плотность которого имеет вид дробно-рациональной функ­
ции

ar ( jω)2r + ar − ( jω)2r −2 + ... + a0


S(ω) = . (2.9.18)
bn ( jω)2n + bn − ( jω)2n −2 + ... + b0

В соответствии с методом пространства состояний представим


процесс x(t) как результат прохождения белого шума w(t) c корре-
ляционной функцией Kw (τ) = 2πc2 δ(τ) (c2 – спектральная плотность
белого шума) через линейный формирующий фильтр с частотной
характеристикой K(jω). Задача состоит в том, чтобы по заданному
спектру (2.9.18) найти частотную характеристику K(jω).
Из теории случайных процессов известно, что на выходе линей-
ного фильтра спектральная плотность стационарного процесса
2
Sx (ω) = c2 K ( jω) . ( 2.9.19)

Определение K(jω) из уравнения (2.9.19) при спектре S(ω) назы-


вают задачей о факторизации спектра. Вычислив нули zi, i = 1, …, 2r
и полюсы pi, i = 1, …, 2n спектральной плотности (2.9.18), предста-
вим S(ω) в виде
ar ( jω − z2r )( jω − z2r − )...( jω − z )
Sx (ω) = . (2.9.20)
bn ( jω − p2n )( jω − p2n − )...( jω − p )

105
На основании того, что S(ω) является действительной, чётной и
неотрицательной функцией, все её нули и полюсы составляют ком-
плексно-сопряжённые пары. Тогда спектральную плотность можно
представить в виде
2
Sx (ω) = Sx+ ( jω)Sx− ( jω) = Sx+ ( jω) ,

где Sx− ( jω) = Sx+ (− jω) . К функции Sx+ ( jω) отнесём нули и полюсы, ле-
жащие в левой полуплоскости комплексной переменной jω и поло-
вину каждой пары чисто действительных нулей и полюсов. В таком
случае комплексная частотная характеристика формирующего
фильтра определяется выражением

Sx+ ( jω)
K ( jω) = . (2.9.21)
c2
Определим систему дифференциальных уравнений, описываю-
щую формирующий фильтр с дробно-рациональным коэффициен-
том передачи (2.9.21) вида
L( jω) l ( jω)r + lr − ( jω)r − + ... + l0
K ( jω) = = r , n ≥ r . (2.9.22)
Q( jω) qn ( jω)n + qn − ( jω)n − + ... + q0
Без нарушения общности положим qn = 1. Из (2.9.22) следует, что
формирующий фильтр описывается дифференциальным уравнени-
ем n-порядка следующего вида:
x(n) (t) + qn −x(n −) (t) + ... + q0 x(t) =
= lr w(r ) (t) + lr −w(r −) (t) + ... + l0 w(t) , (2.9.23)
и дальнейшая задача заключается в представлении уравнения
(2.9.23) в форме (2.9.10).
Как было показано выше, наиболее просто этот переход осущест-
вляется в случае, когда L(jω) является полиномом нулевой степени,
т. е. когда r = 0, L(jω) = l0. Положив x(t) = x1(t), из (2.9.23) получим
искомую систему дифференциальных уравнений относительно
компонент вектора X переменных состояния
 x() = x2 (t) ,

 
 ()
 xn − = xn (t) , (2.9.24)
 n −
x() = − q x (t) + l w(t) ,
 n ∑ i i + 0
 i =0

106
которая тождественна (2.9.10), если положить
0  0  0 0
0 0   0 0
F=      , Γ=  .
0 0 0   0
−q0 −q −q2  −qn − l0

Вектор переменных состояния X размерности n×1 в данном слу-


чае образован фазовыми координатами процесса x(t), т. е. его произ-
водными от нулевого до (n−1)-го порядка. Чтобы обеспечить стацио-
нарность процесса x(t), начиная непосредственно с момента начала
наблюдения, необходимо систему (2.9.10) дополнить соответствую-
щими случайными начальными условиями. В более общем случае
r ≥ 1 переход от (2.9.23) к (2.9.10) усложняется из-за наличия произ-
водных от белого шума в правой части уравнения.

2.10. Представление дискретных во времени сигналов


2.10.1. Представление сигнала
с ограниченной частотной полосой
в виде ряда В. А. Котельникова
В теории и технике сигналов широко используется теорема В. А. Ко-
тельникова (теорема отсчетов) [1]: если спектр функции x(t) ограни-
чен некоторой частотой fm, то функция x(t) полностью определяется
последовательностью своих значений в моменты времени, отстоя-

щие друг от друга не более чем на секунд. Таким образом, мак-
2fm
симальный интервал дискретизации такой функции
 π π
∆T = = = . (2.10.1)
2fm 2πfm ωm

Сокращение интервалов между выборками по сравнению с ве-



личиной допустимо, но бесполезно. Увеличение же интерва-
2fm 
лов сверх величины недопустимо при точном представлении
2fm
сигнала. Сигнал x(t), ограниченный по спектру, можно представить
рядом Фурье следующего вида:

sin ωm (t − k∆T )
x(t) = ∑ x(k∆T ) ⋅ ωm (t − k∆T )
, (2.10.2)
k =−∞

107
где коэффициенты ряда Фурье αk = x(k∆T) определяются выборками
функции x(t) в моменты времени t = k∆T, а ортогональный базис
 sin ωm (t − k∆T ) 
ϕk (t) = , − ∞ ≤ t ≤ ∞
 ωm (t − k∆ T ) 
имеет бесконечный интервал ортогональности и квадрат нормы,
равный
∞ ∞
2 sin 2 ωm (t − k∆T )
ϕk = ∫ ϕk2 (t) dt = ∫ ω2m (t − k∆T )
dt =
−∞ −∞

 sin 2 x
=
ωm ∫ x2
dx = ∆T . (2.10.3)
−∞

Функция
sin ωm (t − k∆t )
ϕk (t) = = sinc ωm (t − k∆T ) (2.10.4)
ωm (t − k∆T )
называется функцией отсчетов (импульс вида sinc ωmt при k∆T = 0
представлен на рис. 2.16).
sinc(ωmt)
1 Φ0( ω)

1/2fm
−1/2fm 1/2fm

t −2πfm 2πfm ω

Рис. 2.16. Функция отсчётов Рис. 2.17. Спектр функции ϕ0(t)


Функция отсчетов обладает следующими свойствами:
– в точке t = k∆T, ϕk(k∆T) = 1, а в точках t = n∆T, где n – любое целое
положительное или отрицательное число, отличное от k, ϕk(n∆T) = 0;
– спектральная плотность функции ϕ0(t) равномерна в полосе
 π
частот |ω| < ωm и равна = (рис. 2.17).
2fm ωm
Так как функция ϕk(t) отличается от ϕ0(t) только сдвигом на оси
времени на величину k∆T, то спектральная плотность функции ϕk(t)
  − jk∆T ω
 e = ∆T e − jk∆T ω при − ωm < ω < ω ,
Φ k (ω) =  2fm (2.10.5)
0 при ω < −ωm и ω > ωm .

108
Так как спектр x(t) ограничен, то сигнал x(t) является непрерыв-
ным и определен в интервале −∞ < t < ∞. Поэтому ряд (2.10.2), как
ряд Фурье, точно определяет заданный сигнал x(t) не только в точ-
ках отсчета, но и в любой момент времени. При этом коэффициенты
Фурье в соответствии с (2.6.12), (2.10.1), (2.10.5)
∞ ω
 2fm m  − jk∆T ω
αk =
∆T ∫ x(t)ϕk (t)dt =
2π −ω∫
X(ω)
2fm
e dω = x(k∆T ) .
−∞ m

В этой формуле использовалась теорема Релея: для любых двух


функций f(t) и g(t) справедливо соотношение
∞ ∞

∫ ∫ G(ω)F (ω)dω ,
*
f (t) g (t)dt = (2.10.6)
−∞
2π −∞

где FP*(ω) и G(ω) – соответственно сопряженный спектр функции f(t)


и спектр функции g(t), и при этом учтено, что интеграл
ω
 m
X(ω)e jk∆T ωdω = x(k∆T ) .
2π −ω∫
m

Если длительность сигнала Tc, как и полоса частот ωm, практи-


чески ограничены, то для полного задания сигнала необходимо чис-
ло выборок
Tcс T
N= + ≈ = 2fmTc . (2.10.7)
∆T ∆T

При этом выражение (2.10.2) принимает следующий вид:


N
2 sin ωm (t − k∆T )
xˆ (t) ≈ ∑ x(k∆T )
ωm (t − k∆T )
.
N
k =−
2

Число N иногда называют числом степеней свободы или базой


сигнала.
Энергию Э и среднюю мощность x2 сигнала x(t) нетрудно выра-
зить через заданную последовательность выборок:
fmTc fmTc
∑ [x(k∆T )] ∑ [x(k∆T ] ,
2 2
Э= ϕk = ∆T
k =− fmTc k =− fmTc

109
fmTc fmTc
Э ∆T 
∑ [x(k∆T )] = 2f T ∑ [x(k∆T )] .
2 2
x2 = = (2.10.8)
Tc Tc k =− fmTc m c k =− fmTc

Из выражения (2.10.8) видно, что средняя за время Tc мощность


непрерывного сигнала равна среднему квадрату выборки. Усредне-
ние ведется по всем интервалам, число которых равно 2fmTc.
Представление сигналов рядом В. А. Котельникова (временное
представление) явилось основой для развития геометрических ме-
тодов исследования в пространстве сигналов. Временное представ-
ление сигнала позволило значительно упростить решение задач,
касающихся преобразования сигналов в линейных электрических
цепях, так как при этом основные аналитические операции сводят-
ся к алгебраическим. Это же представление легло в основу теории
потенциальной помехоустойчивости сигналов. Важное значение
теоремы В. А. Котельникова в том, что она позволила заменить пе-
редачу непрерывных сигналов более простой задачей передачи дис-
кретных сигналов.
Основные погрешности и недостатки представления рядом
В. А. Котельникова реальных сигналов связаны со следующими
причинами.
1. Реальные сигналы являются случайными функциями време-
ни, спектр которых неограничен. Поэтому для них временное диск-
ретное представление при использовании ряда В. А. Котельникова
является приближенным.
2. Реализации сигналов являются ограниченными по длитель-
ности. У таких сигналов спектр неограничен, т. е. условия ограни-
ченности по частоте fm и длительности Tc несовместимы. Поэтому
определение конечного числа N (базы сигнала) является также при-
ближенным. При этом точность воспроизведения x(t) по конечной
выборке размера N уменьшается от середины выборки к концам ее.
3. На практике представление непрерывной функции в виде дис-

кретных отсчетов через интервал времени ∆T = не позволяет
2fm
воспроизводить процесс, развивающийся во времени. Если вне ин-
тервала наблюдения T получен хотя бы один дополнительный от-
счет, то при восстановлении изменяются все значения функции x(t)
на всем интервале T, за исключением отсчетных значений.
4. Для восстановления функции x(t) по отсчетам x(k∆T) необхо-
димо формирование функции отсчётов sinc ωm(t−k∆T), которое со-
пряжено с использованием фильтров низкой частоты. Причем вос-
произведение тем точнее, чем ближе фильтр к идеальному. Но это

110
физически трудно реализуемо и приводит к значительному запаз-
дыванию при восстановлении сигнала.
5. Для реальных сигналов частота среза fm является трудно оп-
ределяемым параметром. Один из возможных способов ее нахожде-
ния состоит в том, что задаются относительной ошибкой воспроиз-
ведения сигналов в виде

2
2 ∫ S(ω) dω
ε (t) ωm
ε2 (t) = = ∞
(2.10.9)
x2 (t) 2
∫ S(ω) dω
0

и отсюда находят граничную частоту ωm (круговая частота среза).


В формуле (2.10.9) |S(ω)| – модуль спектральной плотности сигна-
ла x(t), x2 (t) – средняя энергия сигнала x(t); ε2 (t) – средняя энергия
ошибки аппроксимации реального сигнала сигналом с конечным
спектром.
Относительную ошибку временной дискретизации сигнала x(t)
при конечном числе отсчётов можно определить в следующем виде:
2
 N /2 
∫
 x (t) − ∑ x(k∆T )ϕk (t)  dt
ε2N (t) T k =− N /2 
δ2д = = , (2.10.10)
∫ x (t)dt
2
x2 (t)
T

где ε2N (t)


– средняя энергия ошибки воспроизведения сигнала x(t)
на интервале T по N отсчётам.

2.10.2. Дискретное преобразование Фурье


Известно, что спектр периодического сигнала по тригонометри-
ческому базису есть последовательность коэффициентов ряда Фу-
рье, т. е. спектр является линейчатым. В то же время можно выде-
лить всего один период из бесконечного по времени периодического
сигнала, считая, что за пределами периода сигнал равен нулю, и
найти преобразование Фурье (ПФ) этого сигнала конечной длитель-
ности, т. е. найти спектр непериодического сигнала. Соотношение
этих двух сигналов и их спектров таково, что коэффициенты Фурье
периодического сигнала равны с точностью до множителя 1/T от-
счётам спектра соответствующего непериодического сигнала, беру-
щимся на частотах, кратных основной частоте 1/T.
111
Теперь произвёдем дискретизацию сигналов по времени. Счита-
ем, что дискретизация идеальная, т. е. получаются мгновенные от-
счёты исходного сигнала s(kT), k = −∞,..., ∞ , T – шаг дискретизации.
Математически правильным описанием дискретизированного сиг-
нала является модель на основе перемножения исходного сигнала с
периодической последовательностью δ‑функций:
∞ ∞
sT (t) = s(t) ∑ δ(t − kT) = − ∑ s(kT) δ(t − kT) . (2.10.11)
k =−∞ k =−∞

В результате дискретизации спектр исходного непрерывного


сигнала становится периодическим, в общем случае с наложением
«хвостов» исходного спектра, так как спектр сигнала конечной дли-
тельности всегда имеет бесконечную протяжённость:

ST (ω) = ∑ S(ω − n ω ) . (2.10.12)
n =−∞

При этом важно то, что спектр дискретизированного сигнала яв-


ляется непрерывным, т. е. сплошным.
Итак, спектр дискретизированного сигнала можно получить
из спектра исходного непрерывного сигнала. Для теоретического
анализа такое получение спектра может быть оправданным, так
как спектр исходного непрерывного сигнала известен. Но спектры
используются не только для теоретического анализа, но и для не-
посредственной обработки реальных сигналов, которая предпола-
гает определение спектра сигнала по его реализации. Если сигнал
дискретизирован, то это означит, что спектр надо определять по его
отсчётам, не имея спектра исходного непрерывного сигнала. Для
этого надо взять ПФ непосредственно от sT(t):
∞ ∞
 ∞ 
ST (ω) = ∫ sT (t) e − jωt dt = ∫  ∑ s(kT ) δ(t − kT )  e − jωt dt =
−∞ −∞  k =−∞ 
∞ ∞ ∞
= ∑ s(kT ) ∫ δ(t − kT ) e − jωt dt = ∑ s(kT) e− jωkT . (2.10.13)
k =−∞ −∞ k =−∞

Заметим, что если исходный непрерывный сигнал задан на поло-


жительной временной полуоси, т. е. s(t) = 0, t < 0, то тогда будет
∞ ∞
ST (ω) = ∫ sT (t) e − jωt dt = ∑ s(kT ) e − jωkT .
0 k =0

112
Если сигнал имеет конечную длительность, то, начиная с неко-
торого номера N, отсчёты будут нулевыми, и поэтому спектр сигна-
ла, представленного N отсчётами, будет иметь вид
N −
ST (ω) = ∑ s(kT) e− jωkT . (2.10.14)
k =0

Итак, спектр может быть вычислен по самим отсчётам, и явля-


ется непрерывной функцией, определенной на всей бесконечной оси
частот. В принципе, так как спектр периодический, то достаточно
знать его только на протяжении одного периода, например на ин-
тервале (−π/T, π/T) или (0, 2π/T), и даже можно сказать больше – до-
статочно знать его на вдвое меньшем интервале частот, например
(0, π/T), так как значения спектра на интервале (0, π/T) комплексно
сопряжены со значениями на интервале (π/T, 2π/T).
Необходимо отметить следующее обстоятельство. Для восста-
новления всего сигнала sT(t), т. е. на всей временной оси в виде

∑ s(kT) δ(t − kT), необходимо брать обратное ПФ от ST(ω) на всей
k =0
оси частот, т. е. от −∞ до ∞ по всем периодам спектра. Но если требу-
ется восстановить только один отсчёт исходного непрерывного сиг-
нала, т. е. получить s(kT), достаточно взять обратное ПФ только на
одном периоде ST(ω):
π /T
T
ST ( jω) e jωkT dω .
2π −π∫/T
s(kT ) = (2.10.15)

При цифровой реализации обработки сигналов на основе исполь-


зования спектров необходимо сплошной спектр, пусть даже в огра-
ниченном диапазоне частот, заменить на совокупность чисел, или
дискретизировать, т. е. получить отсчёты спектра ST(ω) на фикси-
рованных частотах:
N −
ST (n ∆ω) = ∑ s(kT) e− j ∆ωnkT = S(n), n = 0, ± , ± 2, ..., (2.10.16)
k =0

где Δω – шаг дискретизации по частоте.


Выбирая Δω надо понимать, что должно быть обеспечено точное
восстановление дискретного сигнала sT(t) из дискретного спектра
S(n). Для такого восстановления можно использовать либо связь
спектров сигнала конечной длительности и периодического сигна-
ла, полученного из первого путём периодического продолжения,

113
либо теорему Котельникова в частотной области по отношению к
спектру. В итоге восстановленный из дискретного спектра сигнал
sT (t) становится периодическим с периодом по времени Tc = 2π/Δω.
Таким образом, после восстановления сигнал является и пери-
одическим, и дискретизированным. Очевидно, что максимально
допустимая величина Δω определяется необходимостью отсутствия
наложения отдельных периодов sT (t), т. е. Tc = 2π/∆ω ≥ τc = NT, где
tc – длительность исходного непрерывного сигнала; N – количество
отсчётов при дискретизации по времени; T – шаг дискретизации.
Поэтому обычно берут ∆ω = 2π/NT.
Так как S(n) – периодическая последовательность (поскольку
ST(ω) – периодическая), то достаточно иметь отсчёты S(n) только
на одном периоде, т. е. достаточно всего (2π/T)/(2π/NT) = N отсчётов
S(n) при n = 0, …, N−1 и Δω = 2π/NT. S(n) называется дискретным
преобразованием Фурье (ДПФ) [1] последовательности s(kT) из N
отсчётов. Преобразования s(kT) ⇔ S(n), k, n = 0, …, N−1 являются
взаимнооднозначными, при этом s(kT) получается из S(n) при помо-
щи обратного ДПФ

 N − j kn
s(kT ) = s(k) = ∑
N n =0
S(n) e N , k = 0,..., N − , (2.10.17)

где
N − 2π
−j nk
S(n) = ∑ s(kT) e N , n = 0,..., N − .
k =0

В показателе экспонент появился множитель 2/N из-за того, что


ΔωT = 2π/N. Заметим, что индекс n в ДПФ можно было бы задавать и
на другом диапазоне, например так: n = −N/2, …, 0, …, (N/2−1) – важ-
но лишь, чтобы это был полный период, т. е. N отсчётов спектра, и
при этом восстановленный сигнал s(kT) не изменится (под знаком

j kn
суммы в (2.10.17) стоит периодическая функция S(n) e N , которая

j kn
является периодической в силу периодичности S(n) и e Заме- N ).
тим также, что задание S(n) на всём периоде является избыточным,
так как S(n) комплексно сопряжены с S(−n) и S(N/2+n) с S(N/2−n).
Поэтому достаточно иметь S(n) для n = 0, …, N/2−1. При этом инфор-
мация не теряется, так как каждое значение S(n) комплексное и со-
ответствует двум отсчётам сигнала s(kT).
При практическом использовании ДПФ естественно желание,
чтобы ДПФ по возможности точнее отражало непрерывное ПФ, т. е.
114
чтобы по S(n) можно было судить о спектре S(ω). Для этого необхо-
димо знать свойства S(n) и S(ω) и их соответствие. Прежде всего, не-
обходимо учитывать, что S(n) и S(ω) всегда будут различаться для
реальных сигналов в силу дискретизации s(t), т. е. в силу наложе-
ния спектров по теореме Котельникова. Поэтому S(n) = ST (n ∆ω) яв-
ляется выборкой спектра дискретизированного сигнала, а не спект-
ра исходного сигнала, т. е. не S(n ∆ω). Для уменьшения указанного
различия двух спектров необходимо увеличивать частоту дискре-
тизации, т. е. уменьшать T. Разрешение по частоте, т. е. шаг Δω оп-
ределяется при выбранном T количеством отсчётов N (и сигнала, и
спектра). При этом разрешение по частоте в Гц, т. е. Δf равно 1/NT,
т. е. обратно общей длине выборки по времени. Отсюда следует важ-
ное заключение – длину выборки NT нельзя брать меньше чем 1/Δf.
Для ДПФ справедливы свойства, подобные свойствам непрерыв-
ного ПФ, но с определенными особенностями. Например, при сдвиге
непрерывного сигнала по времени на величину t0 непрерывное ПФ
принимает вид

S(ω) → S(ω) e − jωt0 ,


а для ДПФ

−j k0n
S(n) → S(n) e N ,
где k0 – количество тактов сдвига. Однако различие в том, что сдвиг
для дискретизированного сигнала считается круговым, т. е. при
сдвиге, например, вправо по временной оси (задержка сигнала)
отсчёты, выходящие за правую границу интервала [0, N−1], долж-
ны быть переставлены влево по кругу в его начало в порядке сле-
дования, в результате чего выборка отсчётов примет вид {s(N−k0),
s(N−k0+1), …, s(N−1), s(0), …, s(N−1−k0)}. Широкому распростране-
нию ДПФ способствовала разработка алгоритма так называемого
«быстрого» преобразования Фурье (БПФ), применимого при чётном
N, в котором происходит сокращение в N2/N log2N раз количества
вычислительных операций (при N = 1024 примерно в 100 раз).

2.10.3. Дискретное преобразование Лапласа и z-преобразование


При описании дискретных процессов и исследовании дискрет-
ных и цифровых систем широко применяются дискретное преобра-
зование Лапласа и z-преобразование [7].
Дискретный процесс применительно к ИИС образуется, как
правило, из непрерывного сигнала x(t) путём взятия отсчетов в мо-
менты времени t = kT, k = …, −1, 0, 1, …, или в более общем случае

115
t = kT+εT, т. е. x(kT+εT) = x[k, ε], где ε – фиксированная величина
(0 ≤ ε ≤1), задающая смещение отсчёта по времени.
Одностороннее дискретное преобразование Лапласа представля-
ют рядом

X(s, ε) = ∑ e − skT x[k, ε] . (2.10.18)
k =0

Заметим, что преобразование Фурье или спектр смещённого дис-


кретного процесса x[k, ε] имеет вид

X( jω, ε) = ∑ e− jωkT x [k,ε], (2.10.19)
k =−∞

а дискретное преобразование Фурье, определённое при ε = 0, для


выборки объёмом N на основании п. 2.10.2
N −
X(n) = ∑ e−(2π / N )nk x [k,0], n = 0, N − . (2.10.20)
k =0

При аналитических расчетах предпочтительнее применение z-


преобразования, образующегося из выражения (2.10.18) путем за-
мены esT на z.
Таким образом, соотношение

X [z, ε ] = ∑ z−k x [k, ε ] (2.10.21)
k =0

определяет z-преобразование дискретного процесса x[k, ε]. Пара-


метр ε не влияет на свойства z-преобразования, поэтому рассмотрим
дискретную функцию x[k] = x[k, 0] и соответствующее ей z-преобра-
зование

X(z) = Z {x [k]}= ∑ z−k x [k]. (2.10.22)
k =0

Ряд (2.10.22) во многих случаях удается просуммировать и предста-


вить z-преобразование в замкнутой форме.
Приведем наиболее важные свойства z-преобразования.
1. Теорема линейности.
Изображение линейной комбинации дискретных функций рав-
но линейной комбинации их изображений
Z {ax[k] + a2 y[k] + a3 f [k] + ... }= a X (z) + a2 Y (z) + a3 F (z) + .... (2.10.23)

116
2. Теорема сдвига.
Если n – целое положительное число, то
 n 
Z {x [k − n]}= z−n  X(z) + ∑ zm x [−m] . (2.10.24)
 m = 

Если функция x[k] равна нулю при отрицательных значениях k,


то из выражения (2.10.24) получим
Z {x [k − n]}= z−n X(z) , (2.10.25)

т. е. сдвиг аргумента на −n соответствует умножению изображения


на z−n.
3. Теорема свертывания оригиналов.
 k 
Z  ∑ x[m] y[k − m]  = X(z)Y (z) . (2.10.26)
m =0 

k k
Ряд ∑ x[m]y[k − m] = ∑ y[m]x[k − m] называют дискретной сверт-
m =0 m =0
кой.
4. Теорема о конечном значении.
lim x[k] = lim(z − ) X(z) . (2.10.27)
k →∞ z→

5. Теорема обращения.
Оригинал x[k] = Z−1{X(z)} определяется выражением

x[k] = ∫
 X(z)zk −dz . (2.10.28)
2πj Γ

Контур интегрирования Г должен охватывать все особые точки под­


ынтегрального выражения. При дробно-рациональных функциях
X(z) оригинал удобно находить по таблицам z-преобразования.

2.10.4. Особенности дискретизации случайных сигналов


Случайные сигналы отличаются тем, что их спектральная плот-
ность S(ω), как правило, имеет бесконечную протяженность по час-
тоте, асимптотически уменьшаясь до нуля при ω → 0. Следователь-
но, дискретизация с конечной частотой выборки приводит к неуст-
ранимой погрешности представления реализации сигнала.

117
Пусть погрешность восстановления (см. (2.10.10)) характеризует-
ся средним по времени и реализациям квадратом отклонения вос-
становленного аналогового сигнала x (t) от исходного x(t):

  
σ2в = M  ∫ [x(t) − x (t) ] dt  .
2
(2.10.29)
 T T 

Будем считать, что восстановление аналогового сигнала проис-


ходит в соответствии с выражением
Nk
x (t) = ∑ x(tk ) Φ k (t) , (2.10.30)
k =0

где Φk(t) – базисные функции, удовлетворяющие условию x (tk ) = x(tk )


совпадения восстановленного и исходного сигналов в моменты
времени tk взятия отсчётов. Подставляя выражение из (2.10.30) в
(2.10.29) и раскрывая математическое ожидание, получим

2 Nk
σ2в =  − ∑ Rx (t − tk ) Φk (t)dt +
T k =0 T∫
 Nk Nk
+ ∑ ∑ Rx (t − tk ) Φi (t) Φk (t)dt ,
T i =0 k =0 T∫
(2.10.31)

где Rx(t) – корреляционная функция исходного случайного сигна-


ла. Очевидно, что при произвольных Rx(τ) и Φk(t) величина σ2в яв-
ляется конечной величиной. Минимум σ2в при заданной частоте
дискретизации могут обеспечить оптимальные Φk(t). Однако поиск
оптимальных Φk(t) при произвольной заданной корреляционной
функции Rx(τ) является затруднительным. Но в одном частном слу-
чае, когда спектральная плотность случайного сигнала равномерна
в ограниченной полосе частот
 
 , − ωc ≤ ω ≤ ωc ,
Sx (ω) =  2 ωc
 0 , ω ≥ ωc ,

т. е. соответствует корреляционной функции


sin ωc τ
Rx (τ) = , (2.10.32)
ωc τ

118
при условии, что интервал времени бесконечный, т. е. T = ∞ и Nk = ∞,
а шаг дискретизации tk+1−tk = 1/2fc = π/ωc , оптимальные базисные
функции существуют
sin ωc (t − tk )
Φ k (t) = , (2.10.33)
ωc (t − tk )

т. е. Φk(t) = Rx(t−tk). При этом σ2в = 0 , и обеспечивается точное вос-


становление сигнала:

x (t) = x(t) = ∑ x(tk ) Φk (t) .
k =−∞

Такой результат согласуется с положениями теоремы Котельни-


кова, применяемой к детерминированным сигналам.

119
Глава 3. Статистический анализ и
оценка точности линейных систем

3.1. Постановка задачи


Точность измерительной системы является важнейшей характе-
ристикой, определяющей её эффективность. Оценить точность сис-
темы – это значит найти характеристики её ошибки. Ошибкой сис-
темы Е(t) в момент времени t называют разность между значениями
действительного Z(t) и требуемого (заданного) Zт(t) выходных сигна-
лов. Требуемый выходной сигнал есть результат заданного преобра-
зования полезного входного сигнала X(t). Теоретическую систему,
осуществляющую идеально точно заданное преобразование полез-
ного сигнала, называют иногда идеальной системой. Реальная сис-
тема не может осуществить такое преобразование. Её входной сиг-
нал Y(t) представляет собой сумму полезного сигнала X(t) и помехи
(погрешности измерения) ξ(t). Ошибка системы возникает в резуль-
тате неточного преобразования полезного сигнала и прохождения
помехи на выход системы.
На рис. 3.1 схематически показано возникновение ошибки.
Ошибку Е(t) реальной системы можно рассматривать как выходной
сигнал некоторой системы, на вход которой поступают сигналы X(t)
и Y(t).
X(t) Идеальная Zт(t)
система
E(t)
ξ(t)
Y(t) Реальная Z(t)
система

Рис. 3.1. Структурная схема образования ошибки


Таким образом, задача изучения точности системы сводится к
изучению преобразования входных сигналов. Поскольку входные
сигналы в общем случае представляют собой случайные процессы,
то ошибка системы есть то же случайный процесс. Поэтому полной
характеристикой точности системы является закон распределения
ошибки. Для нахождения этого закона необходимо знать законы
распределения или моменты высших порядков входных случайных
сигналов. Определить закон распределения выходного сигнала сис-
темы трудно и к тому же оперировать им в качестве оценки точнос-

120
ти неудобно. Поэтому на практике пользуются более простыми и
удобными «числовыми» характеристиками точности.
Важной оценкой точности системы является вероятность того,
что ошибка в момент t не выйдет за пределы заданной области Ω.
Для получения такой оценки в общем случае тоже требуется знать
закон распределения или моменты высших порядков входных слу-
чайных сигналов, что не всегда известно.
Часто ограничиваются определением первых двух моментов слу-
чайной ошибки – математическим ожиданием и корреляционной
функцией или средним квадратом (начальным моментом второго
порядка). Определение этих характеристик существенно проще и
для этого необходимо знать менее полные статистические характе-
ристики входных сигналов. Например, в случае линейной системы
достаточно знать их математические ожидания и корреляционные
функции.
Задача оценки точности системы заключается в том, чтобы по
известным статистическим характеристикам входных сигналов и
заданному преобразованию полезного сигнала найти для данной
системы статистические характеристики её ошибки.
Если известные статистические характеристики входных сигна-
лов недостаточны для определения принятой оценки точности сис-
темы, то задачу оценки точности следует решать на основе принци-
па получения гарантированного результата при наихудших услови-
ях. В этом случае задача заключается в том, чтобы найти оценку
ошибки данной системы при наиболее неблагоприятных значениях
входных сигналов, какие могут быть при известной информации о
них.
В этой главе будут рассмотрены в основном методы определения
первых двух моментов выходных сигналов для линейных стацио-
нарных и нестационарных систем.

3.2. Модели линейных систем


Последующее изложение относится к рассмотрению линейных
систем и основывается на материале разд. 1.2, в котором были даны
начальные сведения об операторах систем. Для линейных систем
выполняется принцип суперпозиции (1.2.2), из которого следует,
что Aτt {0}= 0 и Aτt {−z(τ)}= − Aτt {z(τ)} , следовательно, множество
линейно преобразованных функций есть линейное пространство с
тем же множеством скаляров, что и область определения данного
оператора. Принцип суперпозиции в интегральной форме можно
представить в следующем виде:

121
λ2 λ2
A t {∫ c(τ) ⋅ z(t, τ)dτ} = ∫ c(τ) ⋅ A t {z(t, τ)}dτ . (3.2.1)
λ λ

Если входные и выходные линейные пространства нормированы,


то они являются метрическими (в дальнейшем будем рассматривать
только метрические пространства), и в этом случае появляется воз-
можность рассмотреть вопрос о непрерывности линейных преоб-
разований. Заметим, что норма вектора в линейном пространстве
равна расстоянию точки от начала координат. Линейное преобра-
зование обладает тем свойством, что непрерывность в одной точке
(скажем, при z(t) = 0) эквивалентна непрерывности во всех точках,
т. е. непрерывности преобразования. Другое важное свойство со-
стоит в том, что непрерывность и ограниченность эквивалентны.
Преобразование Aτt { } называется ограниченным, если существует
действительная константа K, такая, что

Aτt {z(τ)} ≤ K ⋅ z(τ) для всех z ∈ Z , (3.2.2)


где z(τ) – норма функции z(τ) в линейном метрическом пространс-
тве.
Для теории линейных преобразований важно, что множество
всех линейных преобразований некоторого линейного пространс-
тва само является линейным пространством, в котором определены
векторное сложение и умножение на скаляр:

Aτt { }= Aτ { }+ A2τ { }⇒ Aτt {z(τ)}= Aτ {z(τ)}+ A2τ {z(τ)},


t t t t
(3.2.3)

Aτt { }= α ⋅ Aτ { }⇒ Aτt {z(τ)}= α ⋅ Aτ {z(τ)} для всех z ∈ Z . (3.2.4)


t t

Эти операции имеют простые схемные аналоги: сложению соот-


ветствует параллельное соединение блоков, а умножению на ска-
ляр – последовательное соединение блока и идеального усилителя с
коэффициентом усиления α. Усилитель может стоять как на входе,
так и на выходе блока.
Пространство линейных операторов можно нормировать

{ }
Аτt {} = sup Аτt {z(τ)} ; z ≤ 

или, что эквивалентно

{ }
Aτt {} = inf K; Aτt {z(τ)} ≤ K ⋅ z , z ∈ Z .

122
Если пространства входов и выходов идентичны, линейное пре-
образование называется линейным оператором. Таким образом,
линейный оператор – это линейное преобразование, отображающее
область своего определения в себя.
Для операторов естественно ввести ещё одну векторную опера-
цию, называемую произведением. Произведение двух операторов
есть составное отображение вида
t t
Aτt {} = Aτ {} ⋅ A2τ {} ⇒ Aτt {z(τ)} =
t t t t
= Aτ {z(τ)} ⋅ A2τ {z(τ)} = Aτ { A2τ {z(τ)}} . (3.2.5)

Физическим эквивалентом произведения является каскадное


соединение блоков, реализующих операторы–сомножители. Умно-
жение дистрибутивно по отношению к сложению, так что
t t t t t t t
Aτ {}( A2τ {} + A3τ {}) = Aτ {} A2τ {} + Aτ {} A3τ {} ,
t t t t t t t
( Aτ {} + A2τ {}) A3τ {} = Aτ {} A3τ {} + A2τ {} A3τ {} . (3.2.6.)

Следовательно, операторы не только образуют линейное про-


странство, но и формируют также алгебру. Алгебра операторов не
t t t t
коммутативна (в общем случае Aτ {} A2τ {} ≠ A2τ {} Aτ {} ), но она содер-
жит единичный элемент EτPt{}, определяемый условием EτtP {z(τ)} = z(t)
для всех z. Если оператор осуществляет взаимно однозначное отоб-
ражение области определения на соответствующую область значе-
ний, то существует обратное отображение, и можно показать, что
оно линейно.
Такой оператор называется несингулярным, он имеет обратный
по умножению оператор ( Aτt {}) −, такой, что

Aτt {} ⋅ ( Aτt {}) − = ( Aτt {}) − ⋅ Aτt {} = Eτt {} . (3.2.7)


Стационарные или инвариантные во времени операторы удобно
описывать при помощи частотного представления весовой функ-
ции
∞ ∞
− j 2 πft j 2 πντ
G (f , ν) = ∫ ∫ g (t − τ)e e dt dτ =
−∞ −∞

∞ ∞
= ∫ g (σ)t− j2πf σ ∫e
j 2 π( f −ν ) τ
dτ dσ = W (f ) ⋅ δ(f − ν) , (3.2.8)
−∞ −∞

123
где δ(f−ν) – дельта-функция; W(f) – частотная характеристика ста-
ционарной или инвариантной во времени системы. В частотном ас-
пекте соотношение (1.2.4) имеет следующий вид:

Xˆ (f ) = ∫ W (f )δ(f − ν)Y (ν)dν = W (f )Y (f ) . (3.2.9)
−∞

Частотная характеристика определяет спектр линейного стаци-


онарного оператора, так как функции yi (t) = e j2πfit , i = …−1, 0, 1, …
инвариантны относительно операции (1.2.4)
∞ ∞
A t {yi (t)} = ∫ g (t − τ)e j2πfi τ dτ = ∫ g (σ)e
j 2 πfi ( t −τ)
dσ = W (fi )yi (t) . (3.2.10)
−∞ −∞

Важное свойство инвариантных во времени операторов состоит


в том, что их произведение коммутативно, следовательно, порядок
включения блоков не имеет значения.
Среди линейных операторов можно выделить следующие часто
встречающиеся операторы.
1. Тождественный оператор.
Тождественный оператор Eτt{} описывается уравнением z(t) =
=Ett{z(τ)}. Это инвариантный во времени оператор и его импульсная
реакция g(t) = δ(t). Соответствующая частотная характеристика
W(f) = 1.
2. Оператор задержки.
Близким к тождественному и практически важным оператором
является оператор задержки, отображающий z(t) в z(t−t0). Соответ­
ствующая ему импульсная реакция есть g(t) = δ(t−t0), и частотная
характеристика имеет вид W (f ) = e − j2π t0f .
3. Оператор стробирования (умножитель).
Многие физические устройства (модуляторы, строб-каскады и
т.д.) осуществляют преобразования вида

xˆ (t) = ω(t) ⋅ y(t) . (3.2.11)


Этот оператор не инвариантен во времени (кроме тех случаев,
когда ω(t) – константа, т. е. производится просто умножение на чис-
ло). Импульсную реакцию оператора стробирования можно запи-
сать в виде
g(t, τ) = ω(t)δ(t−τ) (3.2.12)
или, эквивалентно

124
g(t, τ) = ω(τ)δ(t−τ) .
В частотной форме можно записать
∞ ∞
− j 2 πft + j 2 πντ
W (f , ν) = ∫ ∫ ω(t)δ(t − τ)e dt dτ =
−∞ −∞

− j 2 π( f −ν ) τ
= ∫ ω(τ)e dτ = W (f − ν) . (3.2.12)
−∞
Следовательно, в частотном представлении рассматриваемая
операция характеризуется интегралом свертки

Xˆ (f ) = ∫ W (f − ν)Y (ν)dν . (3.2.13)
−∞

4. Оператор дифференцирования конечного порядка.


Дифференциальный оператор n-го порядка можно записать в
следующем виде:
n −
n
d i xˆ (t) d i y(t)
∑ ai (t) dti
= ∑ bi (t)
dti
, (3.2.14)
i =0 i =0

где ai(t) и bi(t) – непрерывные функции. Соответствующая импуль-


сная реакция есть

 n
 ∑ ψ (t)θk (τ) при t ≥ τ ,
g(t,τ)= k= k (3.2.15)
 0 при t< τ .

Если коэффициенты уравнения постоянны, то параметры систе-


мы не зависят от времени. Кроме тех частных случаев, когда поли-
ном
n
Q(s) = ∑ ai si
i =0

имеет кратные корни, импульсная реакция определяется выраже-


нием

n
∑ α e k
s (t −τ)
при t ≥ τ ,
g (t − τ) = k = k (3.2.16)
 0 при t < τ,

125
где sk – корни уравнения Q(s) = 0. Частотная характеристика для та-
кого инвариантного во времени оператора есть рациональная фун-
кция частоты
n
αk
W (f ) = ∑ ,
k = j2πf − sk

или, что эквивалентно,


P( j2πf )
W (f ) = , (3.2.17)
Q( j2πf )
где полином в числителе имеет вид
n −
P(s) = ∑ bi si .
i =0

5. Вырожденный оператор.
Рассмотрим бесконечномерное функциональное пространство
L2(−∞, ∞), т. е. пространство, в котором энергия (квадрат нормы) сиг-
налов или помех, определённых на бесконечном интервале времени
(−∞, ∞), ограничена

2 2
y = ∫ y(t) dt < ∞ .
−∞

Началом координат в пространстве L2(−∞, ∞) является функция,


равная нулю почти всюду на интервале (−∞, ∞). Операторы, действу-
ющие в пространстве L2(−∞, ∞), область значений которых конечно-
мерна, т. е. имеющие конечный ранг, называются вырожденными.
Функциональное ядро вырожденного оператора обладает свойством
разделимости, что очень удобно для приближённого представления
и численного решения операторных уравнений. Импульсная реак-
ция вырожденного оператора n-го порядка имеет вид
n
g (t, τ) = ∑ ψi (t)θi∗ (τ) , (3.2.18)
i =

где {ψi(t); i = 1, 2, …, n} и {θi(t); i = 1, 2, …, n} есть линейно-независи-


мые системы функций в L2(−∞, ∞). Отображение y(t) в xˆ (t), получа-
емое с помощью такого оператора, выражается через n линейных
функционалов
n
xˆ (t) = ∑ (y, θi )ψi (t) , (3.2.19)
i =

126
где скалярное произведение имеет следующий вид:


(y, θi ) = ∫ y(t)θi (t)dt ,
−∞
где θ*(t) – комплексно-сопряжённая функция. Напомним, что фун-
кциональное полное пространство со скалярным произведением
является метрическим пространством и называется гильбертовым
пространством.
6. Оператор системы в форме линейного интегрального уравне-
ния.
Не все линейные динамические системы можно описать в форме
дифференциальных уравнений. Например, линейная система с чис-
тым запаздыванием. Оператор таких систем может быть представ-
лен в форме линейного интегрального уравнения
T
α ⋅ xˆ (t) − λ ∫ L(t, τ)xˆ (τ)dτ = y(t) , (3.2.20)
0

где функция y(t) и ядро L(t, τ) являются заданными, а xˆ (t) подле-


жит определению. При фиксированном значении T уравнение обра-
зует класс фредгольмовских уравнений; при T = t это уравнение оп-
ределяет класс вольтеровских уравнений. При α = 0, λ = −1 данное
уравнение является линейным интегральным уравнением первого
рода. Если y(t) = 0, α = 1 и λ неизвестно, то получаем однородное ли-
нейное интегральное уравнение второго рода. Наконец при α = 1 и
известном λ получаем неоднородное интегральное уравнение второ-
го рода. Параметр λ есть собственное значение интегрального урав-
нения.
3.3. Общие правила преобразования случайных
сигналов линейными системами
Рассмотрим сначала преобразование случайного сигнала одно-
мерной системой, т. е. системой с одним входом и одним выходом.
Пусть на вход одномерной системы поступает случайный сигнал
X(t) с математическим ожиданием mx(t) и корреляционной функ-
цией Kx(t1, t2). Требуется найти математическое ожидание my(t) и
корреляционную функцию Ky(t1, t2) выходного сигнала Y(t).
Система измерения или измерения и управления преобразует
входной случайный сигнал X(t) в выходной случайный сигнал Y(t).
Это значит, что каждой данной реализации x(t) входного случайно-
го сигнала X(t) соответствует определённая реализация y(t) выход-
ного случайного сигнала Y(t).
127
Обозначение оператора системы At{} в этом и следующем пунктах
отличается от применявшегося ранее, а именно использован единст­
венный индекс t вверху, обозначающий и аргумент функции, по ко-
торому действует оператор, и аргумент функции – результата дейс-
твия оператора.
Запись преобразования системой случайного входного сигнала
X(t) с помощью введенного обозначения оператора системы примет
вид
Y(t) = At{X(t)} . (3.3.1)
Математическое ожидание выходного сигнала Y(t), учитывая
свойство переместительности операторов M и At определяется
my(t) = M[At{X(t)}] = At{mx(t)} . (3.3.2)
Следовательно, математическое ожидание выходного сигнала
линейной системы получается как результат преобразования опе-
ратором системы математического ожидания входного сигнала.
Чтобы найти корреляционную функцию выходного сигнала,
предварительно запишем соотношения для центрированных слу-
чайных процессов, принимая во внимание (3.3.2) и линейность сис-
темы:
 
Y (t) = Y (t) − my (t) = A t {X(t)} . (3.3.3)

По определению корреляционной функции, учитывая (3.3.3),


имеем
   
Ky (t,t2 ) = M[Y (t ) Y (t2 )] = M[ A t {X(t )} A t2 {X(t2 )}] . (3.3.4)

Используя свойство переместительности операторов М и At, за-


пишем (3.3.4)
 
Ky (t,t2 ) = A t A t2 {M[X(t ) X(t2 )]} .

Вводя вместо математического ожидания обозначение корреля-


ционной функции входного сигнала, окончательно получим

Ky (t,t2 ) = A t A t2 {Kx (t,t2 )} . (3.3.5)


Таким образом, корреляционная функция выходного сигнала
линейной системы получается как результат двойного преобразо-

128
вания оператором системы корреляционной функции входного сиг-
нала: один раз по отношению к первому её аргументу, второй раз
по отношению ко второму аргументу. При этом порядок операций
безразличен.
Рассмотрим преобразования входных случайных сигналов мно-
гомерной системой, имеющей несколько входов и выходов. Пусть на
входы многомерной системы поступает n случайных сигналов, кото-
рые преобразуются в m выходных случайных сигналов (рис. 3.2).

Y11 Y1
X1
A11
B

Y2
X2 Y12
A12
B

……… Yk
Y1k
Xk
A1k
B

………
Xn Y1n
Ym
B

A1n
B B

Рис. 3.2. Структурная схема многомерной линейной системы


Обозначим Alk оператор, осуществляющий преобразование вход-
ного сигнала Xk в сигнал Ylk, на l-м выходе при условии, что осталь-
ные входные сигналы равны нулю:
Ylk = Alk{Xk}; k = 1, 2,..., n; l = 1, 2, ..., m.
Для линейной системы на основании принципа суперпозиции
суммарный выходной сигнал, получаемый в результате преобразо-
вания всех n входных сигналов, определяется формулой
n
Yl = ∑ Alk {Xk } , l = 1, 2, ..., m. (3.3.6)
k =

Всю совокупность операторов Alk многомерной системы можно


охарактеризовать матрицей операторов
A = Alk , k = , 2, . . ., n; l = , 2, . . ., m .
(m×n)

Если принять, что входные сигналы составляют случайный век-


тор входа X = ( X (t), X2 (t),..., Xn (t))T , а выходные – случайный
(n×)
129
вектор выхода Y = (Y (t)Y2 (t)....Ym (t))T , то связь между этими век-
(m×)
торами символически можно записать через матричный оператор
A в форме
(m×n)
Y(t) = At X(t), (3.3.7)
что соответствует системе скалярных соотношений
n
Yl (t) = ∑ Alk
t
Xk (t), l = , 2, ... , m ,
k =

совпадающей с (3.3.6), если считать, что Alk Xk=Alk{Xk}.


Сформулируем задачу статистического анализа многомерной
системы. Даны операторы системы Alk, k = 1, 2,..., n; l = 1, 2,..., m и
статистические характеристики входных сигналов:
математические ожидания mxk (t), k = , 2, . . ., n;
корреляционные функции Kxkxh (t, t2 ), k, h = , 2, . . ., n.
Требуется найти статистические характеристики выходных сиг-
налов:
математические ожидания myl (t), l = , 2, . . ., m;
корреляционные функции Kyl y p (t, t2 ), l, p = , 2, . . ., m;
взаимные корреляционные функции Kyl xh (t,t2 ) , Kxh yl (t,t2 ) .
Математическое ожидание выходного сигнала получим, беря
математические ожидания от левой и правой частей (3.3.6) и затем
меняя местами операторы M и Alk:
n n
myl = ∑ M[ Alk
t
{Xk (t)}] = ∑ Alk
t
{mxk (t)} , (3.3.8)
k = k =

где l = 1, 2,..., m.
Итак, математическое ожидание рассматриваемого выходного
сигнала получается как сумма результатов преобразований матема-
тических ожиданий всех входных сигналов операторами системы,
соответствующими каждому входному сигналу и рассматриваемо-
му выходному сигналу.
Выведем формулу для взаимной корреляционной функции
Kyl y p (t,t2 ) выходных сигналов с номерами l и p. Предварительно
запишем на основании формулы (3.3.6) для центрированных слу-
чайных процессов
 n 
Yl (t) = ∑ Alk
t
{Xk (t)} , (3.3.9)
k =

130
 n 
Yp (t) = ∑ A tph {Xh (t)} . (3.3.10)
h =

Тогда корреляционную функцию Kyl y p (t,t2 ) , с учётом выраже-


ний (3.3.9), (3.3.10) и свойства переместительности операторов M и
A, запишем в виде
   n t  n  
Kyl y p (t,t2 ) = M[Yl (t ) Yp (t2 )] = M  ∑ Alk {Xk (t )} ∑ A tph
2
{Xh (t2 )}  =
k = h = 
n n  
= ∑ ∑ Alk
t t2
A ph {M[Xk (t ) Xh (t2 )]} ,
k = h =

где l, p = 1, 2,..., m. Вводя обозначение корреляционной функции


Kxkxh (t,t2 ) входных сигналов Xk и Xh , окончательно получим
n n
Kyl y p (t,t2 ) = ∑ ∑ Alk
t t2
A ph {Kxk xh (t,t2 )} . (3.3.11)
k = h =

При l = p имеем формулу для корреляционной (автокорреляцион-


ной) функции отдельного выходного сигнала Yl (l = 1, 2,..., m).
Таким образом, взаимная корреляционная функция рассматри-
ваемой пары выходных сигналов получается как сумма результатов
двойного преобразования всех возможных автокорреляционных и
взаимных корреляционных функций входных сигналов один раз
оператором системы, действующим по первому аргументу и перво-
му индексу, другой раз оператором системы, действующим по вто-
рому аргументу и второму индексу. При этом порядок операций без-
различен.
Полученные соотношения можно записать в векторно – матрич-
ной форме:
mY (t) = At mX (t) , (3.3.12)

KY (t,t2 ) = At KX (t,t2 )( At2 )T , (3.3.13)

KYX (t,t2 ) = At KX (t,t2 ) , (3.3.14)

KXY (t,t2 ) = KX (t,t2 )( At2 )T , (3.3.15)


где mX(t), mY(t) – векторы математических ожиданий входных и вы-
ходных сигналов; KX(t1,t2), KY(t1,t2) – матрицы, составленные из кор-
реляционных функций входных и выходных сигналов; KXY(t1,t2),
KYX(t1,t2) – матрицы взаимных корреляционных функций входных
и выходных сигналов.

131
3.4. Статистические характеристики выходных
сигналов элементарных звеньев
Используя общие правила преобразования входных случайных
сигналов оператором линейной системы, запишем выражения для
математических ожиданий и корреляционных функций выходных
сигналов элементарных звеньев: суммирующего, дифференцирую-
щего, интегрирующего и усилительного.
Математическое ожидание и корреляционная функция
выходного сигнала суммирующего звена
Пусть на вход суммирующего звена поступает n случайных сиг-
налов Xk(t), k = 1, …, n, имеющих математические ожидания mxk (t)
и корреляционные функции Kxkxh (t,t2 ), k, h = 1, 2,..., n.
Суммирующее звено осуществляет операцию суммирования
входных сигналов Xk(t) и для него оператор Alk{} = 1·{}.
Применяя формулы (3.3.8) и (3.3.11), запишем соответственно
математическое ожидание и корреляционную функцию выходного
сигнала суммирующего звена:
n n
my (t) = ∑  ⋅ {mxk (t)} = ∑ mxk (t) ,
k = k =

n n n n
Ky (t,t2 ) = ∑ ∑  ⋅ { ⋅ {Kxkxh (t ,t2 )}} = ∑ ∑ Kxkxh (t,t2 ) . (3.4.1)
k = h = k = h =

В частном случае, когда входные сигналы являются некоррели-


рованными случайными процессами, формула (3.4.1) принимает
вид
n
Ky (t,t2 ) = ∑ Kxk (t,t2 ) .
k =

Итак, математическое ожидание выходного сигнала суммиру-


ющего звена равно сумме математических ожиданий входных сиг-
налов, а корреляционная функция выходного сигнала равна сумме
всех автокорреляционных и взаимных корреляционных функций
входных сигналов.
Математическое ожидание и корреляционная функция
выходного сигнала дифференцирующего звена
Для дифференцирующего звена, осуществляющего операцию
дифференцирования входного сигнала X(t), оператор At{} = d{}/dt.

132
По формулам (3.3.2) и (3.3.5) находим соответственно математичес-
кое ожидание и корреляционную функцию выходного сигнала диф-
ференцирующего звена:
dmx (t)
my (t) = A t {mx (t)} = , (3.4.2)
dt

d2 Kx (t,t2 )
Ky (t,t2 ) = A t A t2 {Kx (t,t2 )} = . (3.4.3)
dt dt2

Итак, математическое ожидание выходного сигнала дифферен-


цирующего звена равно производной от математического ожидания
входного сигнала, а корреляционная функция выходного сигнала
равна второй смешанной производной от корреляционной функции
входного сигнала, взятой по первому и второму аргументам.
Полученный результат обобщается на случай n-кратного диффе-
ренцирования входного случайного сигнала.
Обратим внимание, что обычное понятие производной к случай-
ной функции X(t) не применимо.
Производной случайной функции X(t) называют предел отно-
шения приращения функции к приращению аргумента в среднем
квадратическом смысле
dX(t) X(t + ∆t) − X(t)
= l.i.m. .
dt ∆t →0 ∆t

Предел в среднем квадратическом (сокращёно l.i.m.) означает,


что
 dX(t) X(t + ∆t) − X(t) 2 
lim M  −  = 0.
∆t →0
 dt ∆t 

Здесь знак lim означает предел в обычном смысле математичес-


кого анализа.
Необходимым и достаточным условием существования производ-
ной случайной функции X(t) является существование производной
её математического ожидания и второй смешанной производной её
корреляционной функции.
Рассмотрим случай, когда на вход дифференцирующего звена
поступает случайный сигнал X(t), статистические характеристики
2 2
которого mx(t) = acosωt и Kx (τ) = Dx e −α τ . Требуется найти матема-
тическое ожидание my(t) и дисперсию Dy(t) выходного сигнала.

133
По формуле (3.4.2) находим математическое ожидание
dmx (t)
my (t) = = −a ω sin ωt .
dt

Корреляционную функцию определяем по формуле (3.4.3)

d2 Kx (τ) d2 Kx (τ)
Ky (t,t2 ) = =− ,
dt dt2 dτ2

где τ = t2−t1.
Выполняя дифференцирование, имеем
d 
Dx e −α τ (−α2 2τ)  = 2Dx α2 e −α τ ( − 2α2 τ2 ) .
2 2 2 2
Ky (τ) = − 
dτ  

При τ = 0 получаем дисперсию выходного сигнала данного диф-


ференцирующего звена
Dy = 2Dxα2 .
Следовательно, дисперсия выходного сигнала дифференциру-
ющего звена зависит не только от дисперсии входного сигнала, но
и от статистической связи между сечениями случайного входного
процесса.
Математическое ожидание и корреляционная функция
выходного сигнала интегрирующего звена
Интегрирующее звено осуществляет операцию интегрирования
входного случайного сигнала X(t) и для него оператор
t
A t {} = ∫ {} dt .
t0

Математическое ожидание и корреляционную функцию вы-


ходного сигнала записываем соответственно по формулам (3.3.2) и
(3.3.5):
t
my (τ) = ∫ mx (τ)dτ ,
t0
t t2
Ky (t,t2 ) = ∫ ∫ Kx (τ, τ2 )dτdτ2 . (3.4.4)
t0 t0

134
Итак, математическое ожидание выходного сигнала интегриру-
ющего звена равно интегралу от математического ожидания вход-
ного сигнала, а корреляционная функция выходного сигнала равна
двойному интегралу от корреляционной функции входного сигна-
ла, взятого по первому и второму аргументам. Порядок операций
безразличен.
Этот результат обобщается на случай прохождения входного
случайного сигнала через последовательную цепь из интегрирую-
щих звеньев.
Найдём корреляционную функцию выходного сигнала интег-
рирующего звена, когда на его вход поступает случайный сигнал в
виде белого шума.
По формуле (3.4.4), принимая во внимание корреляционную
функцию белого шума (2.7.15), получим
t t2 t t2

∫ ∫ 2πc δ(τ − τ2 )dτdτ2 = 2πc ∫ dτ ∫ δ(τ − τ2 )dτ2 .


2 2
Ky (t,t2 ) =
t0 t0 t0 t0

Учитывая свойство δ-функции, после интегрирования получаем


2πc2 (t − t0 ) при t2 ≥ t ,
Ky (t,t2 ) = 
2
2πc (t2 − t0 ) при t2 ≤ t .
Это выражение показывает, что Ky(t1, t2) не является δ-функци-
ей и, следовательно, при прохождении белого шума через интегри-
рующее звено на выходе получается другой случайный процесс, от-
личающийся от белого шума.
Математическое ожидание и корреляционная функция
выходного сигнала усилительного звена
Усилительное звено осуществляет над входным сигналом опера-
цию Y(t) = k(t)X(t). Положим, что коэффициент усиления k(t) – не-
случайная функция. Следовательно, оператор усилительного звена
At{} = k(t){}. Используя формулы (3.3.2) и (3.3.5), найдём соответс-
твенно математическое ожидание и корреляционную функцию вы-
ходного сигнала усилительного звена
my(t) = k(t)mx(t) ,

Ky(t1, t2) = k(t1)k(t2)Kx(t1, t2) .


Итак, математическое ожидание выходного сигнала усилитель-
ного звена равно произведению коэффициента усиления звена на
математическое ожидание входного сигнала, а корреляционная
135
функция выходного сигнала равна произведению двух коэффици-
ентов усиления звена, взятых для первого и второго аргументов на
корреляционную функцию входного сигнала.

3.5. Статистические характеристики выходного сигнала


системы во временном представлении
Определим оператор системы с помощью весовой функции, и на
основании общих правил преобразования случайного входного сиг-
нала линейной системой получим соответствующие формулы для
математического ожидания и корреляционной функции её выход-
ного сигнала.
Определение весовой функции было дано в разд. 1.2. Графически
весовая функция g(t, τ) изображается поверхностью (рис. 3.3).
g(t,t)

0 t=tk

t=tk
t

t
t=t
Рис. 3.3. Вид весовой функции нестационарной системы
Сечение поверхности вертикальной плоскостью, параллельной
оси 0t и проходящей через τk, даёт кривую, изображающую реак-
цию g(t, τk) системы на импульс, приложенный в момент времени
τk.
Сечение поверхности вертикальной плоскостью, параллельной
оси 0τ и проходящей через tk, даёт кривую, изображающую функ-
цию g(tk, τ) как функцию второго аргумента τ.
Следует заметить, что функция g(tk, τ) не представляет собой ре-
акцию данной системы на импульс. График функции g(tk, τ) обра-
зуется как множество ординат весовых функций, построенных для
фиксированного момента времени t = tk.
На основании формулы (1.2.6) запишем выражения оператора
нестационарной линейной системы через весовую функцию
t
A t {} = ∫ g (t, τ){}dτ . (3.5.1)
t0

136
Используя формулы (3.3.2) и (3.3.5) с учётом выражения (3.5.1),
получим соответственно математическое ожидание и корреляцион-
ную функцию выходного сигнала нестационарной линейной систе-
мы:
t
my (t) = ∫ g (t, τ)mx (τ)dτ , (3.5.2)
t0

t t2
Ky (t,t2 ) = ∫ ∫ g (t, τ )g (t2 , τ2 )Kx (τ, τ2 )dτdτ2 . (3.5.3)
t0 t0

Таким образом, зная весовую функцию линейной нестационар-


ной системы, математическое ожидание выходного сигнала опреде-
ляют как результат простого интегрального преобразования вида
(3.5.2) математического ожидания входного сигнала, а корреля-
ционную функцию выходного сигнала определяют как результат
двойного интегрального преобразования вида (3.5.3) корреляцион-
ной функции входного сигнала.
Учитывая, что Dy(t) = Ky(t, t), формулу для дисперсии выходного
сигнала получим непосредственно из соотношения (3.5.3), прирав-
нивая t1 = t2 = t:
t t
Dy (t) = ∫ ∫ g (t, τ )g (t, τ2 )Kx (τ, τ2 )dτdτ2 . (3.5.4)
t0 t0

Следовательно, зная весовую функцию линейной нестационар-


ной системы, дисперсию выходного сигнала определяют как ре-
зультат интегрального преобразования вида (3.5.4) корреляционной
функции входного сигнала.
Из (3.5.4) следует, что для определения дисперсии выходного сиг-
нала требуется задать корреляционную функцию входного сигна-
ла. Задание дисперсии входного сигнала является недостаточным
для определения дисперсии выходного сигнала.
Формулы (3.5.2)–(3.5.4) показывают, что математическое ожида-
ние и дисперсия выходного сигнала являются функциями времени
t, а корреляционная функция является функцией двух аргументов
t1 и t2. Таким образом, выходной сигнал нестационарной системы
представляет собой нестационарный случайный процесс Y(t).
Если в формулах (3.5.2)–(3.5.4) принять t0 = −∞, то получим со-
ответствующие соотношения для установившегося режима, если он
существует.

137
Для линейной стационарной системы (линейной системы с пос-
тоянными параметрами) весовая функция является функцией
только одного аргумента – разности между моментом наблюдения
реакции системы и моментом приложения единичного импульса,
т. е. g(t, τ) = g(t−τ). В этом случае формулы (3.5.2) – (3.5.4) соответс-
твенно запишутся:
t t −t0
my (t) = ∫ g (t − τ)mx (τ)dτ = ∫ g (u)mx (t − u)du , (3.5.5)
t0 0

t −t0 t2 −t0
Ky (t,t2 ) = ∫ ∫ g (u ) g (u2 ) Kx (t − u,t2 − u2 )dudu2 , (3.5.6)
0 0

t −t0 t −t0
Dy (t) = ∫ ∫ g (u ) g (u2 ) Kx (t − u,t − u2 )dudu2 . (3.5.7)
0 0

При этом учтено условие физической возможности системы


g(u) = 0 при u < 0 .
Если на вход стационарной системы поступает стационарный
случайный сигнал и система рассматривается в установившемся
режиме (t0 = −∞), формулы (3.5.5) – (3.5.7) принимают вид

my = mx ∫ g (u)du , (3.5.8)
0

∞∞
Ky (τ) = ∫ ∫ g (u )g (u2 ) Kx (τ + u − u2 )dudu2 , (3.5.9)
00

∞∞
Dy = ∫ ∫ g (u )g (u2 ) Kx (u − u2 )dudu2 . (3.5.10)
00

где τ = t2−t1.
Формулы (3.5.8)–(3.5.10) показывают, что математическое ожи-
дание и дисперсия выходного сигнала являются постоянными ве-
личинами, а корреляционная функция выходного сигнала зависит
только от разности аргументов τ = t1−t2. Таким образом, выходной
сигнал в этом случае представляет собой стационарный случайный
процесс.

138
На основании анализа полученных формул можно сделать об-
щий вывод: выходной сигнал линейной системы представляет со-
бой стационарный случайный процесс тогда и только тогда, когда
рассматривается устойчивая стационарная линейная система в ста-
ционарном режиме при стационарном случайном входном сигнале.
Следовательно, нестационарность выходного сигнала системы
обусловливается хотя бы одной из трёх причин: нестационарностью
входного сигнала, нестационарностью данной системы, нестацио-
нарностью режима работы системы.
Результаты, полученные в начале параграфа для одномерной
системы, можно обобщить на случай многомерной системы (см. рис.
3.2.), если динамические свойства её заданы совокупностью опера-
торов Alk, выраженных через весовые функции.
Запишем на основании выражения (3.5.1) оператор системы с по-
мощью весовой функции
t
t
Alk {} = ∫ glk (t, τ){}dτ , (3.5.11)
t0

где glk(t, τ) – весовая функция системы, соответствующая k-му вхо-


ду и l-му выходу.
Математические ожидания выходных сигналов многомерной
системы на основании общего правила (3.3.8) с учётом выражения
(3.5.11) определяются формулой
n t
myl (t) = ∑ ∫ glk (t, τ)mxk (τ)dτ, l = , 2, ..., m . (3.5.12)
k = t0

Зная совокупность весовых функций линейной многомерной


системы, математическое ожидание рассматриваемого выходного
сигнала определяют как сумму результатов простого интегрально-
го преобразования вида (3.5.12) математических ожиданий вход-
ных сигналов.
Корреляционные функции выходных сигналов многомерной
системы на основании общего правила (3.3.11) и с учётом выраже-
ния (3.5.11) определяются формулой
n n t t2
Kyl y p (t,t2 ) = ∑ ∑ ∫ ∫ glk (t, τ ) g ph (t2 , τ2 ) Kxkxh (τ, τ2 )dτdτ2 , (3.5.13)
k = h = t0 t0

где l, p = 1, 2,..., m.

139
Зная совокупность весовых функций линейной многомерной
системы, корреляционную функцию рассматриваемой пары выход-
ных сигналов определяют как сумму результатов двойного интег-
рального преобразования вида (3.5.13) всех автокорреляционных и
попарно взаимных корреляционных функций входных сигналов.
Выражение дисперсий выходных сигналов получим из формулы
(3.5.13), если принять t1 = t2 = t и l = p,:
n n t t
Dyl (t) = ∑ ∑ ∫ ∫ glk (t, τ ) glh (t, τ2 ) Kxkxh (τ, τ2 )dτdτ2 , (3.5.14)
k = h = t0 t0

где l = 1, 2,..., m.
Зная совокупность весовых функций линейной многомерной сис-
темы, дисперсию рассматриваемого выходного сигнала определяют
как сумму результатов двойного интегрального преобразования
вида (3.5.14) всех автокорреляционных и попарно взаимных корре-
ляционных функций входных сигналов.
Для случая, когда входные сигналы являются некоррелирован-
ными случайными процессами, т. е. Kxkxh (t,t2 ) = 0 при k≠h, в фор-
мулах (3.5.13) и (3.5.14) двойное суммирование заменяют простым
суммированием.
Так, для дисперсии формула (3.5.14) принимает вид
n t t
Dyl (t) = ∑ ∫ ∫ glk (t, τ ) glk (t, τ2 ) Kxk (τ, τ2 )dτdτ2 , (3.5.15)
k = t0 t0

где l = 1, 2,..., m.
Формула (3.5.15) показывает, что при некоррелированных вход-
ных сигналах дисперсия рассматриваемого выходного сигнала
представляет собой сумму отдельных дисперсий.
Формулы (3.5.12) – (3.5.15) позволяют находить соответствую-
щие характеристики ошибки линейной системы, т. е. оценивать
точность системы. С этой целью схему, показанную на рис. 3.1, не-
обходимо сопоставить с системой, представленной на рис. 3.2, при
условии наличия у неё двух входов и одного выхода. Тогда на осно-
вании формул (3.5.12) и (3.5.13) при n = 2, m = 1 получим:
математическое ожидание ошибки
2 t
me (t) = ∑ ∫ gek (t, τ)mxk (τ)dτ
k = t0

и корреляционная функция ошибки

140
2 2 t t2
Ke (t,t2 ) = ∑ ∑ ∫ ∫ gek (t, τ ) geh (t2 , τ2 ) Kxkxh (τ, τ2 )dτdτ2 .
k = h = t0 t0

В этих формулах:
ge (t, τ) – весовая функция идеальной системы, взятая с проти-
воположным знаком;
ge2 (t, τ) – весовая функция реальной системы;
mx (t) и mx2 (t) – математические ожидания соответственно по-
лезного сигнала X(t) и входного сигнала реальной системы Y(t);
Kxx (t,t2 ) , Kx2x2 (t,t2 ) , Kxx2 (t,t2 ) , Kx2x (t,t2 ) – автокорреля-
ционные и взаимные корреляционные функции входных сигналов
X(t) и Y(t).
Если ввести в рассмотрение матрицу весовых функций G =
(m×n)
= glk (t, τ) и учесть выражение для матричного оператора
t
A t {} = ∫ G (t, τ){}dτ ,
t0

то соотношения (3.3.12)–(3.3.15) примут вид


t
mY (t) = ∫ G (t, τ)mX (τ)dτ ,
t0
t t2

∫ ∫ G(t, τ )KX (τ, τ2 )G


T
KY (t,t2 ) = (t2 , τ2 )dτdτ2 ,
t0 t0
t
KYX (t,t2 ) = ∫ G (t, τ ) KX (τ,t2 )dτ ,
t0
t2
KXY (t,t2 ) = ∫ KX (t, τ2 )G T (t2 , τ2 )dτ2 .
t0

Для установившегося режима стационарной линейной много-


мерной системы, возбуждённой стационарными сигналами, имеем

mY (t) = ∫ G (u) mX du = mY = const , (3.5.16)
0

∞∞
KY (t,t2 ) = ∫ ∫ G (u )KX (t2 − t + u − u2 )G T (u2 )dudu2 = KY (τ) , (3.5.17)
00

141

KYX (t,t2 ) = ∫ G (u ) KX (t2 − t + u )du = KYX (τ) , (3.5.18)
0

KXY (t,t2 ) = ∫ KX (t2 − t − u2 )G T (u2 )du2 = KXY (τ) . (3.5.19)
0

3.6. Статистические характеристики стационарных выходных


случайных сигналов в частотном представлении
В разд. 3.5 были рассмотрены статистические характеристики
выходного случайного сигнала линейной системы во временном
представлении. Рассмотрим эти характеристики для стационарной
системы в частотном представлении. При этом ограничимся изуче-
нием установившегося режима работы устойчивой стационарной
системы, т. е. будем рассматривать установившиеся выходные сиг-
налы при t0 = −∞. Именно для этого случая частотное представление
имеет наибольший практический интерес.
Найдём статистические характеристики (математическое ожи-
дание, спектральную плотность, корреляционную функцию и дис-
персию) выходного сигнала одномерной системы.
Математическое ожидание
Пусть на вход системы поступает случайный сигнал X(t) с мате-
матическим ожиданием mx(t). Система имеет передаточную функ­
цию Φ(s). Требуется найти математическое ожидание выходного
сигнала Y(t) системы в установившемся режиме.
Математическое ожидание выходного сигнала стационарной
системы в установившемся режиме определяется через весовую
функцию на основании формулы (3.5.5):

my (t) = ∫ g (u) mx (t − u)du . (3.6.1)
0

Разложим функцию mx(t−u) в ряд Тейлора [3] относительно u:



mx(r ) (t) r
mx (t − u) = ∑ (−)r u . (3.6.2)
r =0 r!
Тогда, принимая во внимание соотношение (3.6.2), формула
(3.6.1) примет вид
∞ ∞ ∞ ∞
mx(r ) (t) r m(r ) (t)
my (t) = ∫ g (u) ∑ (−)r u du = ∑ x (−)r ∫ g (u)ur du . (3.6.3)
0 r =0 r! r =0 r! 0

142
Для того чтобы выразить my(t) через передаточную функцию сис-
темы, воспользуемся соотношением

Φ(s) = ∫ g (u)e − su du, (3.6.4)
0

где Φ(s) – передаточная функция системы.


Дифференцируя соотношение (3.6.4) по s, получим

dΦ(s)
= (−) ∫ g (u)ue − su du .
ds 0

Для производной порядка r



Φ (r ) (s) = (−)r ∫ g (u)ur e − su du . (3.6.5)
0

Полагая в формуле (3.6.5) s = 0,



Φ (r ) (0) = (−)r ∫ g (u)ur du . (3.6.6)
0

Тогда формулу (3.6.3) для математического ожидания, учитывая


равенство (3.6.6), запишем

mx(r ) (t) (r )
my (t) = ∑ Φ (0) , (3.6.7)
r =0 r!
где

d r Φ(s)
Φ (r ) (0) = .
dsr s =0

Итак, зная передаточную функцию линейной стационарной сис-


темы, математическое ожидание выходного сигнала в установив-
шемся режиме определяют простым суммированием произведений
соответствующих производных математического ожидания входно-
го сигнала и передаточной функции системы при нулевом значении
аргумента s.
Заметим, что формулой (3.6.7) для определения математического
ожидания выходного сигнала стационарной системы в установив-
шемся режиме можно пользоваться как для стационарного, так и
для нестационарного входного случайного сигнала X(t), если только
функция mx(t−u) разлагается в ряд Тейлора, сходящийся при всех

143
значениях u, а передаточная функция Φ(s) является дифференци-
руемой функцией соответствующего порядка.
В частном случае, когда mx = const, формула (3.6.7) принимает
вид
my = mxΦ(0) . (3.6.8)
На основании формул (3.3.2) и (3.6.7) выражение оператора че-
рез передаточную функцию для стационарной системы в установив-
шемся режиме имеет вид

Φ r (0) d r {}
A t {} = ∑ ⋅ r .
r =0 r ! dt

Спектральная плотность
Во временном представлении случайного процесса в качестве его
характеристики рассматривалась корреляционная функция. В час-
тотном представлении аналогичной характеристикой стационарно-
го случайного процесса является спектральная плотность.
Пусть на вход стационарной линейной системы поступает ста-
ционарный случайный процесс X(t) со спектральной плотностью
Sx(ω). Требуется найти спектральную плотность выходного сигнала
системы в установившемся режиме.
Известно, что выходной сигнал в этом случае представляется ста-
ционарным случайным процессом Y(t). Поэтому для выходного ста-
ционарного случайного сигнала на основании соотношения (2.7.9)
спектральной теории стационарных случайных процессов запишем
следующее выражение для спектральной плотности сигнала:

 − jωτ
Sy (ω) = ∫ Ky (τ)e dτ .
2π −∞
(3.6.9)

Корреляционная функция выходного стационарного случайного


сигнала определяется формулой (3.5.9)
∞∞
Ky (τ) = ∫ ∫ g (u ) g (u2 ) Kx (τ + u − u2 )dudu2 . (3.6.10)
00

Тогда, учитывая формулу (3.6.10), выражение (3.6.9) для спект-


ральной плотности выходного сигнала примет вид
∞ ∞∞
 − jωτ
Sy (ω) = ∫ ∫ ∫ g (u )g (u2 )Kx (τ + u − u2 )e dτdudu2 . (3.6.11)
2π −∞ 00

144
Несколько изменяя запись подынтегральной функции, тройной
интеграл в выражении (3.6.11) можно представить в форме
∞ ∞
Sy (ω) = ∫ g (u )e − jωu ∫ g (u2 )e jωu2 ×
0 0



× ∫ Kx (τ + u − u2 )e − jω( τ+ u −u2 ) dτdudu2 . (3.6.12)
2π −∞
Принимая во внимание, что

 − jω( τ+ u −u2 )
∫ Kx (τ + u − u2 )e
2π −∞
dτ = Sx (ω)

и частотная характеристика системы представляет собой преобра-


зование Фурье весовой функции, выражение (3.6.12) запишем
Sy (ω) = Φ( jω)Φ(− jω)Sx (ω) =| Φ( jω) |2 Sx (ω) , (3.6.13)
где

Φ(− jω) = ∫ g (u)e jωu du .
0

Спектральная плотность выходного сигнала стационарной ли-


нейной системы в установившемся режиме при стационарном слу-
чайном входном сигнале равна произведению квадрата модуля час-
тотной характеристики данной системы на спектральную плотность
входного сигнала.
Перейдём к определению корреляционной функции и дисперсии
выходного сигнала для этого случая.
Корреляционная функция и дисперсия
Корреляционную функцию выходного сигнала рассматриваемой
системы на основании формулы (2.7.9) с учётом выражения (3.6.13)
запишем так:

Ky (τ) = ∫ | Φ( jω) |
2
Sx (ω)e jωτ dω . (3.6.14)
−∞
При τ = 0 получаем формулу дисперсии

∫ | Φ( jω) |
2
Dy = Sx (ω)dω . (3.6.15)
−∞

145
Итак, зная частотную характеристику системы, корреляцион-
ную функцию и дисперсию выходного сигнала устойчивой линей-
ной стационарной системы в установившемся режиме при стаци-
онарном случайном входном сигнале определяют как результат
простого интегрального преобразования спектральной плотности
входного сигнала.
Результаты, полученные для одномерной системы, легко обоб-
щаются на многомерную устойчивую стационарную систему. Пусть
на вход многомерной системы поступает n сигналов. Система име-
ет m выходов (см. рис. 3.2). Каждый из n входных сигналов может
быть преобразован в соответствующий выходной сигнал с номером
выхода l (l = 1, 2,..., m).
Статистические характеристики входных сигналов – математи-
ческие ожидания mxk (t) (k = 1, 2,..., n) и спектральные плотности
Sxkxh (ω) (k, h = 1, 2,..., n) – известны. Динамические свойства систе-
t
мы заданы совокупностью операторов Alk через передаточные фун-
кции:
∞ Φ (lkr ) (0) d r {}
t
Alk {} = ∑ ⋅ r , (3.6.16)
r =0 r! dt

где Φlk(s) – передаточная функция системы по отношению к k-му


входу и l-му выходу.
Последовательно найдём математические ожидания, спектраль-
ные плотности, корреляционные функции и дисперсии выходных
сигналов системы.
Математическое ожидание
На основании общего правила преобразования (3.3.8) математи-
ческое ожидание выходного сигнала Yl, определяется формулой
n
myl = ∑ Alk
t
{mxk (t)} . (3.6.17)
k =
t
Принимая во внимание выражение для оператора Alk , формулу
для математического ожидания выходного сигнала запишем
n ∞ Φ (lkr ) (0) (r )
myl (t) = ∑ ∑ mx (t), l = , 2,..., m . (3.6.18)
k = r =0 r! k

Итак, зная передаточные функции системы по отношению к каж-


дому входу и рассматриваемому выходу, математическое ожидание
рассматриваемого выходного сигнала линейной стационарной сис-
темы в установившемся режиме определяют суммой вида (3.6.18).
146
Спектральная плотность
Найдём взаимную спектральную плотность для произвольно
взятой пары выходных сигналов Yl и Yp.
Обозначим взаимную спектральную плотность для этих сигна-
лов через Syl y p (ω), l, p = 1, 2,..., m. Воспользуемся соотношением
(2.7.14) между взаимной спектральной плотностью и взаимной кор-
реляционной функцией двух случайных процессов

 − jωτ
Syl y p (ω) = ∫ Kylyp (τ)e dτ ,
2π −∞
(3.6.19)

где l, p = 1, 2,..., m.
Формула (3.6.19) справедлива только для стационарных и стаци-
онарно связанных случайных процессов. Поэтому этой формулой
можно пользоваться тогда и только тогда, когда рассматривает-
ся устойчивая стационарная линейная система в установившемся
режиме при стационарных и стационарно связанных случайных
входных сигналах.
В этом случае корреляционные функции выходных сигналов оп-
ределяются на основании формулы (3.5.13):
n n ∞∞
Kyl y p (τ) = ∑ ∑ ∫ ∫ glk (u ) g ph (u2 ) Kxkxh (τ + u − u2 )dudu2 . (3.6.20)
k = h = 0 0

Используя выражение (3.6.20) и изменяя подынтегральную функ­


цию так, как это сделано в интеграле (3.6.12), формулу (3.6.19) для
спектральной плотности выходных сигналов запишем в виде
n n ∞ ∞
Syl y p (ω) = ∑ ∑ ∫ glk (u )e − jωu ∫ g ph (u2 ) ×
k = h = 0 0

 − jω( τ+ u −u2 )
×e jωu2 ∫ Kxkxh (τ + u − u2 )e dτdudu2 .
2π −∞

С учётом того, что каждый из интегралов в данной формуле


представляет собой преобразование Фурье соответственно функций
glk(u1), gph(u2) и Kxkxh (τ), формула для спектральных плотностей вы-
ходных сигналов в частотном представлении примет вид
n n
Syl y p (ω) = ∑ ∑ Φ lk ( jω)Φ ph (− jω)Sxkxh (ω) , (3.6.21)
k = h =

147

где l = 1, 2,..., m; Φ lk ( jω) = ∫ glk (u )e − jωu du – частотная харак-
0
теристика системы по отношению к k-му входу и l-му выходу;

Φ ph (− jω) = ∫ g ph (u2 ) jωu2 du2 – комплексно-сопряженная частотная
0
характеристика системы по отношению к h-му входу и p-му выхо-
ду.
Итак, зная совокупность частотных характеристик устойчивой
линейной стационарной многомерной системы, взаимную спект-
ральную плотность рассматриваемой пары выходных сигналов этой
системы в установившемся режиме определяют суммированием
вида (3.6.21).
Перейдём к определению дисперсий выходных сигналов много-
мерной системы.
Корреляционная функция и дисперсия
Взаимную корреляционную функцию произвольной пары вы-
ходных сигналов Yl(t) и Yp(t) рассматриваемой системы на основа-
нии формулы (2.7.13) с учётом выражения (3.6.21) запишем
n n ∞
Kyl y p (τ) = ∑ ∑ ∫ Φlk ( jω)Φ ph (− jω)Sx x
k h
(ω)e jωτ dω , (3.6.22)
k = h =−∞
где l, p = 1, 2,..., m.
При τ = 0 и l = p получаем формулу для дисперсии выходного сиг-
нала Yl(t):
n n ∞
Dyl = ∑ ∑ ∫ Φlk ( jω)Φlh (− jω)Sx x
k h
(ω)dω , (3.6.23)
k = h = −∞

где l = 1, 2,..., m.
Итак, зная совокупность частотных характеристик устойчивой
линейной стационарной многомерной системы, корреляционные
функции и дисперсии рассматриваемых выходных сигналов в ус-
тановившемся режиме определяют суммированием простых интег-
ральных преобразований (3.6.22) и (3.6.23) всевозможных попарно
взаимных спектральных плотностей входных сигналов.
Соотношениям (3.3.12)–(3.3.15) для многомерной системы в час-
тотной области соответствует:
mY = Φ(0)mX , 
T 
SY (ω) = Φ( jω)SX (ω)Φ (− jω) ,
 (3.6.24)
SYX (ω) = Φ( jω)SX (ω) , 
SXY (ω) = SX (ω)Φ T (− jω) , 

148
где SX(ω), SY(ω) – матрицы спектральных плотностей, а SXY(ω) и
SYX(ω) – матрицы взаимных спектральных плотностей векторов

X(t) и Y(t); Φ ( jω) = ∫ G (u)e − jωu du – матрица частотных характерис-
(m×n)
0
тик многомерной линейной системы.
Полученные формулы для статистических характеристик вы-
ходных сигналов в частотном представлении используем для опре-
деления статистических характеристик установившейся ошибки
линейной стационарной системы.
Рассмотрим статистические характеристики установившейся
ошибки стационарной линейной системы в частном представлении.
Пусть на вход реальной системы поступает (см. рис. 3.1) суммар-
ный сигнал Y(t) = X(t)+ξ(t) . Полезный сигнал X(t) и помеха ξ(t) пред-
ставляют собой стационарные и стационарно связанные случайные
процессы с известными математическими ожиданиями и спект-
ральными плотностями. Требуется найти статистические характе-
ристики ошибки системы в стационарном режиме: математическое
ожидание, спектральную плотность и дисперсию.
Эта задача представляет собой частный случай задачи определе-
ния статистических характеристик выходных сигналов многомер-
ной системы, когда число входов n = 2, а число выходов m = 1.
Используя общие формулы (3.6.18), (3.6.21) и (3.6.23), последова-
тельно запишем выражения для математического ожидания, спек-
тральной плотности и дисперсии ошибки системы.
Математическое ожидание
Формула (3.6.18) при n = 2, m = 1 с учётом того, что математи-
ческие ожидания входных сигналов имеют постоянные значения,
определяет математическое ожидание ошибки системы
2
me = ∑ Φ ek (0)mxk . (3.6.25)
k =

В формуле (3.6.25) передаточные функции

Φ e (s) = Φ(s) − Φ 0 (s), Φ e2 (s) = Φ(s),

где Φ0(s) – передаточная функция идеальной системы; Φ(s) – пере-


даточная функция реальной системы; mx , mx2 – математические
ожидания полезного сигнала X(t) и суммарного входного сигнала
Y(t).

149
Спектральная плотность
Формула (3.6.21) при n = 2, m = 1 определяет спектральную плот-
ность ошибки системы
2 2
Se (ω) = ∑ ∑ Φ ek ( jω)Φ eh (− jω)Sxkxh (ω) . (3.6.26)
k = h =

Для случая взаимно некоррелированных входных процессов X(t)


и ξ(t) формула (3.6.26) примет вид
Se (ω) =| Φ( jω) − Φ 0 ( jω) |2 Sx (ω)+ | Φ( jω) |2 Sξ (ω) ,
где Sx(ω) – спектральная плотность полезного сигнала; Sξ(ω) – спект­
ральная плотность помехи.
Дисперсия
Формула (3.6.23) при n = 2, m = 1 определяет дисперсию ошибки
системы
2 2 ∞
De = ∑ ∑ ∫ Φe ( jω)Φe
k h
(− jω)Sxkxh (ω)dω . (3.6.27)
k = h = −∞

Для случая взаимно некоррелированных X(t) и ξ(t) формула


(3.6.27) имеет вид
∞ ∞

∫ | Φ( jω) − Φ 0 ( jω) |2 Sx (ω)dω + ∫ | Φ( jω) | Sξ (ω)dω .


2
De = (3.6.28)
−∞ −∞
Первый интеграл в формуле (3.6.28) представляет собой состав-
ляющую дисперсии ошибки, обусловленную неточным преобра-
зованием (искажением) полезного сигнала; второй интеграл – со-
ставляющую дисперсию ошибки, обусловленную прохождением
помехи. Отметим, что полученные формулы (3.6.25)–(3.6.28) для
статистических характеристик ошибки системы справедливы тог-
да и только тогда, когда рассматривается устойчивая стационарная
линейная система в установившемся режиме при стационарных и
стационарно связанных входных случайных сигналах.
Аналитический метод определения дисперсии выходного
сигнала стационарной системы в установившемся режиме
Преобразуем формулу (3.6.23), по которой вычисляется диспер-
сия выходного сигнала системы, к виду
∞ n n
Dyl = ∫ k∑= h∑= Φlk ( jω)Φlh (− jω)Sx xk h
(ω)dω . (3.6.29)
−∞

150
Если спектральные плотности входных сигналов Sxkxh (ω) пред-
ставляют собой дробно-рациональные функции от jω, вычисление
интегралов (3.6.29) можно свести к вычислению интегралов стан-
дартного вида [3, 6]

 Bn ( jω)
In = ∫ An ( jω) An (− jω) dω ,
2π −∞
(3.6.30)

где
An ( jω) = a0 ( jω)n + a ( jω)n − + ... + an ,
Bn ( jω) = b0 ( jω)2n −2 + b ( jω)2n −4 + ... + bn − .
Значения этих интегралов получаются непосредственно через
параметры спектральных плотностей входных сигналов и частот­
ных характеристик системы.
Заметим, что в случае взаимной некоррелированности сигналов
xk(t) и xh(t) Sxkxh (ω) = 0 и в (3.6.29) останутся только Sxkxk (ω) , явля-
ющиеся чётными вещественными функциями ω, которые, однако,
всегда можно при помощи операции факторизации представить в
виде произведения двух комплексно-сопряжённых функций от jω.
Значение интеграла определяется по формуле

(−)n + Cn
In = , (3.6.31)
2 a0 Dn

где матрица Dn =|| dmr || ; dmr = a2m −r ; m, r = 1, 2,..., n, а матрица Cn


равна матрице Dn, в которой первый столбец заменен на (b0, b1,...,
bn−1)T.
Определитель |Dn| является определителем Гурвица для полино-
ма An(ω).
Для применимости метода достаточно, чтобы полином An(ω) обес-
печивал невырожденность матрицы Dn.
Рассмотрим пример определения дисперсии ошибки системы. На
вход линейной стационарной следящей системы (рис. 3.4), исполь-
зуемой для получения оценки Xˆ (t) полезного сигнала X(t), посту-
пает суммарный сигнал Y(t) = X(t) + ξ(t). Полезный сигнал X(t) пред-
ставляет собой стационарный случайный процесс со спектральной
Dx α
плотностью Sx (ω) = . Помеха ξ(t) – белый шум со спект-
π(α2 + ω2 )
ральной плотностью s0. Требуется найти дисперсию ошибки оценки
в установившемся режиме.
151
Y(t)=X(t)+ξ(t) k Z (t) = Xˆ (t)
s(1+Ts)

Рис. 3.4. Структурная схема следящей системы

Предварительно найдём передаточную функцию замкнутой сис-


темы по отношению к входному сигналу Y(t)
W (s) k
Φ(s) = = .
 + W (s) k + s( + Ts)

Дисперсию ошибки системы для данного примера определим по


формуле (3.6.28), принимая во внимание частотную характеристи-
ку идеальной системы Φ0(jω) = 1 (так как Zт(t) = X(t)) и конкретные
выражения спектральных плотностей Sx(ω) и Sξ(ω) = s0:
∞ 2 ∞ 2
k Dx α k
De = ∫ k + jω( + Tjω)
−
π α +ω
2 2
dω + ∫
k + jω( + T (ω))
s0 dω .
−∞ −∞

Перепишем выражение De в виде, удобном для представления че-


рез стандартные интегралы:


Dx α T 2 ( jω)4 − ( jω)2
De =
π −∞∫ (T( jω)2 + jω + k)(T(− jω)2 − jω + k)(α + jω)(α − jω) dω +


+k2 s0 ∫ (T( jω)2 + jω + k)(T(− jω)2 − jω + k) = 2 Dx α I3 + 2π k s0 I2 ,
2

−∞

где I3, I2– стандартные интегралы вида (3.6.30). Найдём I3.



 B3 ( jω)
I3 = ∫
2π −∞ A3 ( jω) A3 (− jω)
dω ,

B3 ( jω) = T 2 ( jω)4 − ( jω)2 = b0 ( jω)4 + b ( jω)2 + b2 , b0 = T 2 , b = −, b2 = 0;

A3 (ω) = (T ( jω)2 + jω + k)(α + jω) = T ( jω)3 + (Tα + )( jω)2 + (α + k) jω + kα =

= a0 ( jω)3 + a ( jω)2 + a2 jω + a3 , a0 = T, a = Tα + , a2 = α + k, a3 = kα .

152
Согласно (3.6.31)
b0 a0 0
b a2 a
3+ b
(−) 2 0 a3 −a2b0 + a0 b − a0 ab2 / a3   + T (α + k)
I3 = = = ⋅ 2 ,
2a0 a a0 0 2a0 (a0 a3 − aa2 ) 2 α T +α+k
a3 a2 a
0 0 a3
Теперь найдём I2.

 B2 ( jω)
I2 = ∫
2π −∞ A2 ( jω) A2 (− jω)
dω ,

B2 ( jω) =  = b0 ( jω)2 + b , b0 = 0, b = ;
A2 ( jω) = T ( jω)2 + jω + k = a0 ( jω)2 + a jω + a2 , a0 = T, a = , a2 = k;
b0 a0
2+
(−) b a2 −b0 + a0 b / a2 
I2 = ⋅ = = .
2a0 a a0 2a0 a 2k
a3 a2
Подставляя найденные значения I2 и I3 в выражение для диспер-
сии, получим
 + T (α + k)
De = Dx α 2 + kπs0 .
α T +α+k

3.7. Преобразование случайных сигналов системами


в пространстве состояний
Пусть исходная система описывается моделью в пространстве со-
стояний:
x 0 (t) = Fx (t) x0 (t) + Gx (t)[w(t) + u(t)] , (3.7.1)
y(t) = Hx (t) x0 (t) , (3.7.2)
где x0 – вектор состояния размерности n; Fx, Gx, Hx – матрицы с раз-
мерностями соответственно n×n, n×p, m×n; w – случайная составля-
ющая вектора входных воздействий размерности p; u – детермини-
рованная составляющая вектора входных воздействий размерности
p; y – наблюдаемый вектор размерности m.
В большинстве случаев, встречающихся в практике использо-
вания ИИС, входные возмущения удовлетворительно описываются
153
случайными процессами с дробно-рациональными спектральными
плотностями. Поэтому входные возмущения можно смоделировать
при помощи формирующего фильтра (см. п. 2.9.2.) в пространстве
состояний:
z(t) = Fz (t) z(t) + Gz (t) n(t) , 
 (3.7.3)
w(t) = Hz (t) z(t) , 
где Fz, Gz, Hz – матрицы с размерностями соответственно l×l, l×s, p×l;
n(t) – вектор взаимно некоррелированных белых шумов с единич-
ными интенсивностями и нулевыми математическими ожидания-
ми размерности l. Зависимость параметров модели (3.7.3) от време-
ни позволяет сформировать нестационарные входные воздействия.
Дополняя систему (3.7.1) системой (3.7.3) формирования воздейст­
вия w(t), получим расширенную систему
x 0 (t) = Fx (t) x0 (t) + Gx (t) Hz (t) z(t) + Gx (t) u(t) , 
 (3.7.4)
z(t) = Fz (t) z(t) + Gz (t) n(t) , 
которую с добавлением (3.7.2) можно переписать в стандартном
виде
x (t) = F (t) x(t) + G (t) n(t) + C(t) u(t) , (3.7.5)
y(t) = H(t) x(t) , (3.7.6)
где x = [x0, z]T – расширенный вектор состояния; F, G, C, H – состав-
ные матрицы:
 F (t) Gx (t) Hz (t)   0 
F (t) =  x  , G (t) =  ,
 0 Fz (t)  Gz (t) 
G (t) 
C(t) =  x  , H(t) = [Hx (t) 0].
 0 
При анализе линейных систем в пространстве состояний обычно
на практике бывает достаточно определить математическое ожида-
ние и ковариационную матрицу вектора состояния и наблюдаемого
вектора.
Для получения необходимых зависимостей потребуется связь
вектора состояния с входными воздействиями [7]
t
x(t) = Φ(t,t0 ) x(t0 ) + ∫ Φ(t, τ)[G (τ) n(t) + C(τ) u(τ)]dτ , (3.7.7)
t0

где x(t0) – значение вектора x в начальный момент времени t0 ; Φ(t, τ) –


матрица перехода, определяемая из уравнения Φ  (t,t0 ) = F (t) Φ(t,t0 )
с начальным условием Φ(t, t0) = I (I – единичная матрица).
154
Выполнив операцию математического ожидания над (3.7.7), по-
лучим выражение для математического ожидания вектора состоя-
ния
mx (t) = M[x(t)] = M[Φ(t,t0 ) x(t0 )] +
 t   t 
+M[Φ(t,t0 ) x(t0 )] + M  ∫ Φ(t, τ) G (τ) n(τ)dτ  + M  ∫ Φ(t, τ) C(τ) u(τ)dτ  .
t0  t0 
Тогда, учитывая, что M[n(t)] = 0, окончательно будем иметь
t
mx (t) = Φ(t,t0 )M[x(t0 )] + ∫ Φ(t, τ) C(τ) u(τ)dτ , (3.7.8)
t0

где M[x(t0)] – математическое ожидание начального значения векто-


ра x, которое можно принять равным (M[x0(t0)], 0)T.
Можно также получить дифференциальное уравнение для матема-
тического ожидания вектора состояния, применив операцию мате-
матического ожидания к обеим частям (3.7.5)
 x (t) = F (t) mx (t) + C(t) u(t)
m (3.7.9)

с начальным условием mx (t) t =t = M[x(t0 )] .


0
Математическое ожидание наблюдаемого вектора с учётом
(3.7.6)
my (t) = M [H(t) x(t)] = H(t) mx (t) .
Теперь найдём ковариационную матрицу вектора состояния, ко-
торая по определению имеет вид

{
Kx (t) = M [x(t) − mx (t)][x(t) − mx (t)]T . } (3.7.10)

Подставляя в эту формулу вместо x(t) и mx(t) их выражения из


(3.7.7), (3.7.8) и выполняя необходимые преобразования, получим
{
Kx (t) = M Φ(t,t0 ) x(t0 )[Φ(t,t0 ) x(t0 )]T + }
 t t 
+M  ∫ ∫ Φ(t, τ ) G (τ ) n(τ )[Φ(t, τ2 ) G (τ2 ) n(τ2 )]T dτ dτ2  =
t0 t0 
= Φ(t,t0 )M[x(t0 ) x T (t0 )] Φ T (t,t0 ) +
t t
+ ∫ ∫ Φ(t, τ ) G (τ )M[n(τ ) nT (τ2 )] G T (τ2 )Φ T (t, τ2 )dτ dτ2 .
t0 t0

155
Учитывая, что M[n(τ1)nT(τ2)] = I⋅δ(τ2−τ1) (так как n(t) – вектор бе-
лых шумов единичной интенсивности), и выполняя интегрирова-
ние с δ‑функцией, окончательно получим

t
Kx (t) = Φ(t,t0 ) Kx (t0 ) Φ T (t,t0 ) + ∫ Φ(t, τ) G (τ) G T (τ)Φ T (t, τ)dτ . (3.7.11)
t0

Можно также вывести и дифференциальное уравнение для Kx(t).


Для этого надо продифференцировать (3.7.10) по времени и заме-
нить в полученном выражении производные x (t) и m  x (t) согласно
(3.7.5) и (3.7.9). В результате получим следующее дифференциаль-
ное уравнение:

K x (t) = F (t) Kx (t) + Kx (t) F T (t) + G(t) G T (t)

с начальным условием Kx (t) t =t = Kx (t0 ) .


0
Ковариационная матрица вектора наблюдаемых сигналов систе-
мы на основании (3.7.10) и (3.7.6)

Ky (t) = H(t) Kx (t) H T (t) .

В отдельных случаях возникает необходимость найти матрицу


корреляционных функций вектора состояния

{
Kx (t,t2 ) = M [x(t ) − mx (t )][x(t2 ) − mx (t2 )]T . }
Повторяя действия, подобные выполненным при выводе (3.7.11),
получим
min(t ,t2 )
Kx (t,t2 ) = Φ(t,t0 ) Kx (t0 ) Φ T (t2 ,t0 ) + ∫ Φ(t, τ) G (τ) G T (τ)Φ T (t2 , τ)dτ .
t0

Если при выводе (3.7.11) в качестве начального момента взять не


t0, а более ранний из двух моментов t1, t2, то можно прийти к друго-
му выражению
 Φ(t,t2 ) Kx (t2 ), t ≥ t2 ,
Kx (t,t2 ) =  T
 Kx (t ) Φ (t2 ,t ), t ≤ t2 .

156
Матрица корреляционных функций вектора наблюдаемых сиг-
налов с учётом (3.7.6)
Ky (t,t2 ) = H(t ) Kx (t,t2 ) H T (t2 ) .

Следует отметить, что метод пространства состояний хорошо со-


гласуется с теорией марковских процессов [4], и, следовательно, мо-
жет применяться при нелинейных преобразованиях сигналов [8].

157
Заключение
Подводя итоги изучения изложенного в учебном пособии мате-
риала, перечислим и дадим краткую характеристику рассмотрен-
ных вопросов, предварительно распределив их по следующим трём
группам.
1. Классические способы и методы описания сигналов и систем,
в основе которых лежат такие понятия, как гармонический ана-
лиз реализаций сигналов, описание систем на основе аппарата им-
пульсных весовых функций и частотных характеристик, корреля-
ционно-спектральное описание сигналов и систем при случайных
воздействиях. Вопросы этой группы продолжают оставаться фун-
даментом, на котором строится информационно-статистическая те-
ория измерений.
2. Описание сигналов и систем на основе метода пространства со-
стояний; вопросы, связанные с дискретизацией сигналов по време-
ни, в том числе дискретные преобразования Фурье, Лапласа, z-пре-
образование. Эти вопросы стали актуальными в связи с широким
распространением цифровой обработки сигналов.
3. Специальные вопросы такие, как конечномерная аппрокси-
мация сигналов и оператора систем в гильбертовом пространстве;
представление случайных сигналов при помощи обобщённых рядов
Фурье, рядов Пугачёва и Карунена–Лоэва; интегральное преобра-
зование Гильберта. Вопросы данной группы могут представлять
самостоятельный интерес, а также быть полезными в задачах ана-
лиза ИИС, но главным образом они применяются в приближенных
методах синтеза ИИС.
Приведённое деление на группы является условным, но может
быть отражением уровня формируемых знаний: материал первой
группы соответствует начальному уровню, содержание второй груп-
пы дополняет его до базового уровня, а сведения из третьей группы
необходимы для более глубокого владения предметом.

158
Библиографический список
1. Гоноровский И. С. Радиотехнические цепи и сигналы: учебник
для вузов. М.: Радио и связь, 1986. 512 с.
2. Френкс Л. Теория сигналов. М.: Советское радио, 1974. 344 с.
3. Росин М. Ф., Булыгин В. С. Статистическая динамика и теория
эффективности систем управления: учебник для вузов. М.: Маши-
ностроение, 1981. 312 с.
4. Тихонов В. И., Харисов В. Н. Статистический анализ и син-
тез радиотехнических устройств и систем: учебное пособие для
вузов. М.: Радио и связь, 1991. 608 с.
5. Перов В. П. Прикладная спектральная теория оценивания. М.:
Наука, 1982. 432 с.
6. Иванов Ю. П., Синяков А. Н., Филатов И. В. Комплексирова-
ние информационно-измерительных устройств летательных аппа-
ратов: учебное пособие для вузов. Л.: Машиностроение, 1984. 207 с.
7. Виноградов А. В., Иванов Ю. П. Методы обработки сигналов:
учебное пособие/ ЛИАП. Л., 1986. 76 с.
8. Тихонов В. И., Шахтарин Б. И., Сизых В. В. Случайные про-
цессы. Примеры и задачи: учебное пособие для вузов: В 4 т. Т. 2.
Линейные и нелинейные преобразования. М.: Радио и связь, 2004.
400 с.
9. Чернецкий В. И. Анализ точности нелинейных систем управ­
ления. М.: Машиностроение, 1968. 246 с.
10. Михалёв В. И., Окоёмов Б. Н., Чикулаев М. С. Системы авто-
матического управления самолётом. М.: Машиностроение, 1987.
240 с.

159
Учебное издание

Иванов Юрий Павлович


Бирюков Борис Леонтьевич

ИНФОРМАЦИОННО-СТАТИСТИЧЕСКАЯ
ТЕОРИЯ ИЗМЕРЕНИЙ

Модели сигналов и
анализ точности систем
Учебное пособие

Редактор А. В. Подчепаева
Верстальщик А. Н. Колешко

Сдано в набор 12.11.07. Подписано к печати 25.01.08.


Формат 60х84 1/16. Бумага офсетная. Печать офсетная. Усл.-печ. л. 9,3.
Уч.-изд. л. 10,0. Тираж 150 экз. Заказ №

Редакционно-издательский центр ГУАП


190000, Санкт-Петербург, Б. Морская ул., 67

160

Вам также может понравиться