Вы находитесь на странице: 1из 106

ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ

ГОУ ВПО «ИРКУТСКИЙ ГОСУДАРСТВЕННЫЙ


УНИВЕРСИТЕТ»

А. А. Аргучинцева

МЕТОДЫ СТАТИСТИЧЕСКОЙ ОБРАБОТКИ


И АНАЛИЗА ГИДРОМЕТЕОРОЛОГИЧЕСКИХ
НАБЛЮДЕНИЙ

Учебное пособие

Иркутск 2007

1
УДК 551.46+551.501
ББК 26.23
А 79
Печатается по решению редакционно-издательского совета
Иркутского государственного университета

Рецензенты: П. Г. Ковадло, ст. науч. сотр. института солнечно-земной


физики, д-р физ.-мат. наук; А. А. Кречетов, доц. кафедры
метеорологии и охраны атмосферы Иркутского госунивер
ситета, канд. геогр. наук

Аргучинцева А. В.
Методы статистической обработки и анализа гидрометеороло-
А 79 гических наблюдений : учеб. пособие / А. В. Аргучинцева. –
Иркутск : Иркут. гос. ун-т, 2007. – 105 с.

Излагаются основные теоретические знания методов обработки и


анализа гидрометеорологической информации, базирующиеся на поло-
жениях теории вероятностей, математической статистики и теории слу-
чайных процессов. Приводятся примеры конкретных расчетов, прово-
димых с помощью методов полиномиальной и оптимальной интерпо-
ляции, четырехмерного численного анализа и методов контроля исход-
ной информации.
Пособие предназначено для студентов очного и заочного отделе-
ний специальностей «Гидрология» и «Метеорология», а также направ-
ления «Гидрометеорология».
Библиогр. 43 назв. Ил. 2. Табл. 1.

ISBN 978-5-9624-0165-2

Пособие подготовлено при поддержке ведомственной целевой программы


«Развитие научного потенциала высшей школы (2006–2008) проект РНП.
2.2.1.1.7334 «Научно-образовательный центр Байкал».

УДК 551.46+551.501
ББК 26.23

ISBN 978-5-9624-0165-2 © Аргучинцева А. В., 2007


© ГОУ ВПО «Иркутский государственный
университет», 2007

2
ОГЛАВЛЕНИЕ

ВВЕДЕНИЕ 5
1. КРАТКИЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 6
1.1. Основные понятия 6
1.2. Введение в теорию ошибок 18
1.2.1. Особенности обработки ограниченного числа
наблюдений. Оценки для неизвестных параметров
закона распределения 21
1.2.2. Оценки для неизвестных параметров генеральной
совокупности: математического ожидания и дисперсии 23
1.3 Множественное линейное уравнение регрессии. Множественный
коэффициент корреляции 27
1.4 Метод наименьших квадратов 33
1.4.1. Линейная связь между двумя случайными величинами 33
1.4.2 Построение нелинейных уравнений множественной
регрессии 35
2. СЛУЧАЙНЫЕ ФУНКЦИИ 38
2.1. Основные понятия 38
2.2. Основные характеристики случайной функции 41
2.3. Система случайных функций 46
2.4. Суммирование случайных функций 49
2.5. Стационарные случайные функции 51
2.5.1. Система стационарных случайных функций 54
2.6. Положительно определенные функции 57
2.7. Свойство эргодичности случайных процессов 57

3
2.8. Структурная функция 60
2.9. Случайные поля 63
2.9.1. Основные понятия 63
2.9.2. Однородные и изотропные случайные поля и их
характеристики 66
2.10. Экстраполяция, интерполяция и сглаживание случайных
функций 69
2.11. Влияние ошибок измерения на статистические характеристики
корреляционного анализа 72
3. ЧИСЛЕННЫЙ АНАЛИЗ ГИДРОМЕТЕОРОЛОГИЧЕСКОЙ
ИНФОРМАЦИИ 73
3.1. Метод полиномиальной интерполяции 75
3.2. Метод оптимальной интерполяции 80
3.3. Четырехмерный численный анализ 93
3.4. Метод контроля исходной информации 95

4
ВВЕДЕНИЕ
В настоящее время остро ощущается недостаток учебной ли-
тературы, в которой методически и в разумных пределах строгости
были бы освещены необходимые разделы для освоения грамотной
статистической обработки и анализа гидрометеорологических на-
блюдений. Дисциплина относится к основополагающим курсам в
системе подготовки высококвалифицированных специалистов, не-
зависимо от их специализации в области гидрометеорологии.
Цель пособия – освоение теоретических и практических ос-
нов прикладного статистического анализа.
Пособие рассчитано на знание основ математического анали-
за, теории вероятностей и математической статистики в рамках
программного курса для студентов, обучающихся по специально-
стям гидрология, метеорология или по направлению гидрометео-
рология. Материал, изложенный в пособии, может оказать сущест-
венную помощь и при изучении таких дисциплин, как «Гидроло-
гические прогнозы», «Численные методы анализа и прогноза пого-
ды», «Синоптическая метеорология», «Речной сток и гидрологиче-
ские расчеты», «Водохозяйственные расчеты», «Моделирование в
задачах охраны окружающей среды».
Учебное пособие состоит из введения, трех глав, списка ос-
новной и дополнительной литературы в алфавитном порядке.
Формулы имеют тройную нумерацию: первая цифра – номер гла-
вы, вторая – номер параграфа в соответствующей главе, третья –
номер формулы в рассматриваемом параграфе. Количество рисун-
ков ограничено, а потому их нумерация сквозная.

5
1. КРАТКИЕ СВЕДЕНИЯ
ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

1.1. Основные понятия


Теория вероятностей и математическая статистика изучают
закономерности в массовых случайных явлениях.
Случайное явление – это такое явление, которое при неодно-
кратном воспроизведении одного и того же опыта протекает каж-
дый раз несколько по-иному.
Совершенно очевидно, что в природе нет ни одного физиче-
ского явления, в котором не присутствовали бы в той или иной ме-
ре элементы случайности. Как бы точно и подробно ни были фик-
сированы условия опыта, невозможно достигнуть того, чтобы при
повторении опыта результаты полностью и в точности совпадали.
Случайные отклонения неизбежно сопутствуют любому за-
кономерному явлению. Тем не менее, в ряде практических задач
этими случайными элементами можно пренебречь, рассматривая
вместо реального явления его упрощенную схему, «модель», и
предполагая, что в данных условиях опыта явление протекает
вполне определенным образом. При этом из бесчисленного мно-
жества факторов, влияющих на данное явление, выделяются самые
главные, основные, решающие; влиянием остальных, второстепен-
ных, факторов просто пренебрегают.
Однако для решения ряда вопросов описанная схема так на-
зываемых «точных наук» оказывается плохо приспособленной.
Существуют такие задачи, где интересующий нас исход опыта за-

6
висит от столь большого числа факторов, что практически невоз-
можно зарегистрировать и учесть все эти факторы. Это – задачи, в
которых многочисленные второстепенные, тесно переплетающие-
ся между собой случайные факторы играют заметную роль, а вме-
сте с тем число их так велико и влияние столь сложно, что приме-
нение методов исследования «точных наук» себя не оправдывает.
Очевидно, должна существовать принципиальная разница в
методах учета основных, решающих факторов, определяющих в
главных чертах течение явления, и вторичных, второстепенных
факторов, влияющих на течение явления в качестве «погрешно-
стей» или «возмущений». Элемент неопределенности, сложности,
многопричинности, присущий случайным явлениям, потребовал
создания специальных методов для изучения этих явлений. Имен-
но такие методы разработаны в теории вероятностей, математиче-
ской статистике, теории случайных процессов.
Практика показывает, что, наблюдая в совокупности массы
однородных случайных явлений, обычно обнаруживаются опреде-
ленные закономерности, своего рода устойчивости, свойственные
именно массовым случайным явлениям.
Подобные специфические, так называемые «статистические»,
закономерности наблюдаются всегда, когда мы имеем дело с мас-
сой однородных случайных явлений. Закономерности, проявляю-
щиеся в этой массе, оказываются практически независимыми от
индивидуальных особенностей отдельных случайных явлений,
входящих в массу. Эти отдельные особенности в массе как бы вза-
имно погашаются, нивелируются, и средний результат массы слу-
чайных явлений оказывается уже практически не случайным.
Именно эта многократно подтвержденная опытом устойчивость
массовых случайных явлений и служит базой применения вероят-
ностных (статистических) методов исследования.
Обычно случайные величины обозначают большими
(прописными) буквами латинского алфавита, а их возможные зна-
чения – соответствующими малыми (строчными) буквами с цело-

7
численными индексами. Например, случайная величина X с воз-
можными значениями x1 , x 2 ,..., x n . Рассматривают случайные ве-
личины двух типов: дискретные и непрерывные. Возможные зна-
чения дискретных величин можно перечислить (количество гид-
рометеорологических станций и постов в городе, количество теле-
фонных звонков, поступающих абоненту в сутки, количество сту-
дентов в группе и пр.). Возможные значения непрерывных вели-
чин заполняют некоторый промежуток, который иногда имеет
резко выраженные границы, а чаще – границы неопределенные,
расплывчатые. Примеры непрерывных величин – давление, модуль
скорости ветра, температура среды, рост человека и пр.
Необходимо вспомнить, что в теории вероятностей и матема-
тической статистике давались определения
m
классической вероятности – P = ,
n
где n – общее число исходов, m – число исходов, благоприятст-
вующих появлению интересуемого события. Иначе классическую
вероятность можно назвать теоретической вероятностью, или ве-
роятностью генеральной совокупности, или вероятностью до опы-
та (apriori). Определить такую вероятность можно при условии,
что для случайных событий выполнима схема случаев, т. е. выпол-
няются три условия: события образуют полную группу, несовме-
стны и равновозможны.
Если хотя бы одно из трех условий не выполняется, то опре-
делить классическую (теоретическую) вероятность нельзя. В этом
случае необходимо проделать серию опытов и определить так на-
зываемую
m
статистическую вероятность – P * = ,
n
где n – общее число опытов, m – число опытов, в которых появи-
лось (наблюдалось) интересуемое событие. Иначе статистическую
вероятность можно назвать эмпирической, или вероятностью выбо-
рочной совокупности, или вероятностью после опыта (a posteriori).

8
Между статистической и классической вероятностью суще-
ствует связь, определяемая законом больших чисел в виде теоремы
Бернулли (студенту предлагается вспомнить).
Случайная величина полностью определяется законом рас-
пределения (для дискретных величин – это ряд распределения или
функция распределения, для непрерывных величин – это функция
распределения или функция плотности вероятности).
Ряд (таблица) распределения – это задание возможных зна-
чений случайной величины с соответствующими вероятностями.
Например,
Х х1 х2 … хn
Р p1 p2 … pn
n
Здесь ∑ pi = 1 , n – либо общее число исходов, либо число
i =1

опытов. Рассматривая каждую пару значений (x i , p i ) как точку на


плоскости, можно ряд распределения представить геометрически
как многоугольник распределения.
Функция распределения F(x ) – это универсальный (инте-
гральный) закон распределения, справедливый и для дискретных,
и для непрерывных случайных величин. Ее аналитическая запись:
F(x ) = P(X < x ) = P(− ∞ < X < x ) – вероятность того, что случайная
величина X окажется левее какого-либо возможного своего значе-
ния. Очевидно, что функция распределения безразмерна. Ее свой-
ства: если x 2 > x 1 , то F(x 2 ) ≥ F(x 1 ) – неубывающая функция сво-
его аргумента,
lim F(x ) = 0, lim F(x ) = 1.
x → −∞ x → +∞

Дополнение функции распределения F(x ) до 1, т. е. 1 − F(x )


называют в гидрологии функцией обеспеченности (в биологии –
функцией выживаемости, экономике – функцией риска). Если обо-
значить функцию обеспеченности через P(x ) , то
P(x ) = 1 − F(x ) = P(X ≥ x ) ,

9
т. е. функция обеспеченности показывает вероятность превышения
некоторого заданного значения x и обладает свойствами:
при x 2 > x1 P (x 2 ) ≤ P (x 1 ) ;
lim P(x ) = 1, lim P(x ) = 0 ;
x → −∞ x → +∞

F(x ) = P(x ) = 0,5.


Функция плотности распределения (вероятности) f (x ) –
это дифференциальный закон распределения непрерывных слу-
чайных величин: f (x ) = F′(x ) (при условии, что F(x ) дифференци-
руема для всех значений случайной величины). Вспомнив опреде-
ление производной, можно утверждать, что функция плотности
распределения имеет размерность, обратную размерности случай-
ной величины. Функция плотности распределения, являясь произ-
водной неубывающей функции распределения F(x ) , будет неотри-
+∞
цательной, т. е. f (x ) ≥ 0 и ∫ f (x ) dx = 1, где f (x )dx есть элемент ве-
−∞
роятности (безразмерный).
Благодаря функции плотности вероятности можно оценить
вероятность попадания случайной величины в любую область из
множества ее значений. Например,
x b
P(X < x ) = P(− ∞ < X < x ) = ∫ f (x )dx , P(a < X < b ) = ∫ f (x )dx ,
−∞ a

где x , a и b принадлежат области определения случайной вели-


чины X .
Существует очень большое количество различных теорети-
ческих законов распределения (равномерный, Бернулли, Коши,
Пуассона, нормальный, логнормальный, Гумбеля, Крицкого–
Менкеля, Джонсона, 13 кривых распределения Пирсона и др.).
Наиболее употребительным является нормальный закон распреде-
ления. В гидрометеорологической практике, как правило, рассмат-
ривают законы распределения, зависящие от небольшого числа
параметров (обычно два–три).

10
Однако найти конкретный закон распределения для случай-
ной величины не всегда возможно, а иногда и не нужно. Поэтому
часто достаточно охарактеризовать поведение случайной величи-
ны числовыми характеристиками, из которых студенту надо
вспомнить обыкновенные (степенные) начальные, центральные и
смешанные моменты. Чтобы четко понимать различие и сходство
моментов теоретических и статистических, условимся в левой по-
ловине листа записывать моменты теоретические, а в правой – ста-
тистические, разделяя их вертикальной чертой.

Теоретические моменты Статистические моменты


(моменты генеральной (моменты выборочной
совокупности) совокупности)

Начальные моменты к-порядка


n n
α k = ∑ x ik p i – для дискрет- ∑ x ik n i
i =1 i =1
αk = – начальный мо-
ной величины, где при n → ∞ n
должно выполняться условие мент, взвешенный по частотам.
сходимости ряда. Здесь n – общее количество
опытов, n i – количество опытов,
в которых появилось интересуе-
мое событие.
n
∑ x ik
i =1
αk = – простой начальный
n
момент.
В дальнейшем все формулы бу-
дут записаны в двойном виде
(моменты, взвешенные по часто-
там и простые).

11
+∞

αk = ∫ xk f (x)dx – для непре-


−∞

рывной величины при усло-


вии, что несобственный инте-
грал сходится.

Из начальных моментов самостоятельное значение имеет


только 1-й, который получил специальное название – математи-
ческое ожидание m x , или M(X ) (теоретическое среднее, среднее
генеральной совокупности), размерность которого совпадает с
размерностью самой случайной величины. Для выборки 1-й на-
чальный момент – это среднее арифметическое.
n n
α1 = ∑ x i p i = m x ∑x n i i
i =1
α1 = i =1
= x – среднее ариф-
+∞
n
α1 = ∫ xf ( x )dx = m x метическое, взвешенное по час-
−∞
тотам (среднее выборки).
n

∑x i
α1 = = x – простое среднее
i =1

n
арифметическое

Студенту предлагается вспомнить связь между математиче-


ским ожиданием и средней арифметической (теорема Чебышева
из закона больших чисел).
Среднее многолетнее значение величин (многолетний пе-
риод такой продолжительности, при увеличении которой полу-
ченное среднее существенно не меняется) называют нормой, на-
пример, норма годового стока, норма сроков вскрытия и замерза-
ния водных объектов, норма дат начала и окончания весеннего
половодья, норма высоты снежного покрова, климатическая нор-
ма и пр.

12
Начальные моменты выше первого порядка самостоятель-
ного значения не имеют и используются как вспомогательные
для более быстрого вычисления центральных моментов.

Центральные моменты к-порядка


∑ (x − x ) n
n n
μ k = ∑ (x i − m x )k pi для дис- k
i i
i =1
μk = i =1

кретной величины n

∑ (x − x )
n
k
+∞ i
μ k = ∫ ( x − m x ) k f ( x )dx μk = i =1

−∞ n
для непрерывной величины

Центральные моменты μ 0 = 1, μ 1 = 0 самостоятельного значения


не имеют.
μ 2 имеет самостоятельное значение и его называют дисперсией (D).
n
n
μ 2 = D = ∑ ( x i − m x ) 2 p i для ∑ (x i − x )
2
ni
i =1

дискретной величины μ 2 = D в = i =1 ,
n

+∞ n
μ 2 = D = ∫ ( x − m x ) 2 f ( x )dx ∑ (x i − x )
2
−∞
μ 2 = D в = i =1 ,
для непрерывной величины n
n
∑ (x i − x )
2

i =1
μ 2 = Dв = для n < 30
n −1

Дисперсия имеет размерность, равную размерности квадра-


та случайной величины. Поэтому, чтобы получить характеристи-
ку разброса той же размерности, что и случайная величина, из
дисперсии извлекают квадратный корень. Положительный ко-
рень из дисперсии: + D = σ – среднее квадратическое отклоне-
ние (по английской терминологии – стандарт), который характе-
ризует разброс случайной величины вокруг своего среднего.

13
На практике измерить все значения случайной величины не
всегда возможно. В этих случаях поступают следующим образом:
в расчет включают дополнительную характеристику, которая по-
зволяет по среднему значению, полученному на основании огра-
ниченного числаn n наблюдений, судить об общей (истинной)
величине средней всей совокупности. Такого рода характеристи-
ками являются средние случайные ошибки. Так, средняя ошибка
n
∑ xi − X
i =1
средней арифметической δ x = , а средняя ошибка сред-
n n
n
∑ (x i − X )
2

i =1 σ
него квадратического отклонения δ σ = = . От-
n n
δσ
ношение должно находиться в пределах 1,25 ÷ 1,30 , согласно
δx
которым случайные ошибки подчиняются закону нормального
распределения.

Центральные моменты μ 3 и μ 4 используют для расчетов соот-


ветственно асимметрии (А) и эксцесса ( Ex ).
n n

μ3
∑ (x i − m x ) 3 p i μ3
∑ (x i − x) 3 n i
i =1 i =1
A= = Aв = 3
=
σ 3
σ 3
σ nσ 3
для дискретной величины
+∞ n
∫ ( x − m x ) f ( x )dx ∑ (x i − x) 3
3

μ μ3
A = 33 = −∞
Aв = = i =1
σ σ 3
σ 3
nσ 3
для непрерывной величины

А = 0 – распределение случайной величины симметрично, А < 0 и


А > 0 – распределение асимметрично – соответственно левая и
правая асимметрия. Коэффициент асимметрии безразмерен. На

14
практике принято асимметрию при значении A ≤ 0,25 считать
малой, 0,25 < A ≤ 0,5 – умеренной, A > 0,5 – большой, A > 1,5
– исключительно большой.
n n

μ ∑ (x i − m x ) pi4

μ4 ∑ (x i − x)4 n i
E x = 44 − 3 = i =1 −3 E x = 4 − 3 = i=1 −3
σ σ4 σ nσ 4
для дискретной величины

+∞ n

μ4 ∫ ( x − m ) f ( x )dx
x
4
μ4 ∑ (x − x) i
4

Ex = − 3 = −∞ −3 Ex = −3= i =1
−3
σ 4
σ4 σ4 nσ 4
для непрерывной величины

Именно число 3 вычитается потому, что для весьма распростра-


μ4
ненного нормального закона распределения отношение = 3.
σ4
Следовательно, для нормального распределения E x = 0 ; для бо-
лее островершинного распределения по сравнению с нормаль-
ным E x > 0 ; для более плосковершинного распределения по
сравнению с нормальным E x < 0 .
Отклонение от нормального распределения может приобре-
тать не только асимметричную форму. Имеются распределения,
у которых в силу воздействия тех или иных факторов сохраняет-
ся симметричность ряда и его кривой распределения, но наблю-
дается нехарактерное для нормального распределения скопление
частот в центре ранжированного ряда. Это скопление образует
высокую пикообразную кривую, ветви которой круто опускаются
по осям ординат к оси абсцисс и затем резко переходят в «шлей-
фы» по обеим сторонам. Такой тип кривой называют эксцессив-
ным ( E x > 0 ). Для кривых с существенно положительным эксцес-
сом характерно, что крайние значения x min и x max не доходят до
границ X ± 3σ . При E < 0 кривая распределения может иметь
x

15
провал, что соответствует генетической неоднородности ряда
случайных величин. Оценки эксцесса колеблются в [− 2, ∞[ . Если
E x = −2 – кривая распределения распадается на две отдельные,
при − 0,5 < E x < 3 считают, что распределение приближается к
нормальному.
Центральные моменты выше четвертого порядка на практи-
ке используются очень редко из-за быстрого накопления ошибок
округления при расчетах.
Коэффициент корреляции между двумя случайными величинами
Х и У характеризует степень тесноты линейной зависимости.
n n
∑ ∑ (x i − m x )(y j − m y )pij n n
rxy =
i =1 j=1
∑ ∑ (x i − x )(y j − y )n ij
σx σy i =1 j=1
rxy =
для дискретной величины nσ x σ y

+∞ +∞
∑ ∑ (x i − x )(y j − y )
n n
∫ ∫ (x − m x )(y − m y )f ( x, y)dxdy i =1 j=1
−∞ −∞ rxy =
rxy =
σx σ y nσ x σ y
для непрерывной величины n
∑ (x i − x )(yi − y )
rxy = i =1 при i=j.
nσ x σ y

pij – вероятность совместной реализации значений x i и y j ,


f ( x, y) – двумерная функция плотности вероятности.
rxy – безразмерная величина, − 1 ≤ rxy ≤ +1.
Если rxy = 0 , то между случайными величинами нет линейной
связи; связь нелинейная может иметь место, и ее надо находить
другими методами (в этом случае говорят, что величины некор-
релируемы, но могут быть зависимыми).
Если rxy > 0 , то говорят о положительной корреляции, т. е. с уве-
личением одной случайной величины другая имеет тенденцию
возрастать.

16
Если rxy < 0 , то говорят об отрицательной корреляции, т. е. с
увеличением одной случайной величины другая имеет тенден-
цию убывать.

Среди часто используемых характеристик случайной вели-


чины следует также дополнительно отметить:
из характеристик положения:
моду (Мо) – наиболее вероятное значение случайной величины,
медиану (Ме) – значение случайной величины, приходящееся на се-
редину упорядоченного ряда, q-квантиль q = P(X < x q ) = F(x q ) = q .
Очевидно, что медиана является частным случаем 50 % кван-
тили, так как P(X < x 0,5 ) = P(X < x 50% ) = F(x 0,5 ) = 0,5 = 50% или
P(X < Me ) = P(X > Me ) = 0,5 .
Если значения среднего значения случайной величины, ее
моды и медианы совпадают, то говорят, что распределение этой
величины симметрично. При левой асимметрии X < Me < Mo ,
при правой – X > Me > Mo .
Естественно, что все характеристики положения имеют раз-
мерность самой случайной величины.

Из характеристик разброса:
размах R = x max − x min ,
n
∑X−X
i −1
среднее абсолютное отклонение d = ,
n
σx
коэффициент вариации ν= 100% , или ν=
σx
100 % , ис-
mx X
пользуемый для оценки однородности (неритмичности) рядов. На
практике при коэффициенте вариации более 33 % необходимо
тщательно проанализировать рассматриваемый ряд случайных ве-
личин, чтобы выяснить причину его неоднородности. Такие при-

17
чины могут быть обусловлены грубыми ошибками наблюдателя
или оператора, антропогенным вмешательством человека, клима-
тическими изменениями и пр. Ошибки необходимо устранить, ли-
бо разбить ряд на однородные части.

1.2. Введение в теорию ошибок


Теория ошибок – изучение и оценка погрешностей в измере-
ниях. Опыт показывает, что ни одно измерение, как бы тщательно
оно ни проводилось, не может быть совершенно свободно от оши-
бок. Поскольку в основе любой науки и ее применений заложены
измерения, исключительно важно рассчитывать эти ошибки и сво-
дить их к минимуму.
В науке слово «ошибка» не имеет обычного бытового значе-
ния чего-то неправильного. «Ошибка» в научном измерении озна-
чает неизбежную погрешность, которая сопутствует всем измере-
ниям. Ошибки, как таковые, часто нельзя отнести к промахам экс-
периментатора, он не сможет их избежать, стараясь быть очень
внимательным. Лучшее, на что можно рассчитывать, – это свести
ошибки к возможному минимуму и надежно рассчитать их вели-
чины. Часто слово «ошибка» заменяют словом «погрешность».
Экспериментальные погрешности, которые можно обнару-
жить с помощью многократных измерений, называются случай-
ными ошибками, а те, которые нельзя обнаружить таким способом,
называются систематическими ошибками.
Чтобы проиллюстрировать различия между этими видами
ошибок, рассмотрим несколько примеров. Предположим, что мы
измеряем время оборота равномерно вращающегося диска. Одним
из источников ошибок будет время нашей собственной реакции
при запуске и остановке секундомера. Если бы это время реакции
было всегда точно одним и тем же, то два запаздывания, обуслов-
ленные реакцией экспериментатора, компенсировали бы фактиче-
ски друг друга. Однако время нашей реакции изменяется: мы мо-

18
жем больше промедлить при запуске и недооценить время оборо-
та, или больше задержаться при остановке секундомера и переоце-
нить время. Так как обе возможности равновероятны, то знак эф-
фекта случаен. При многократном повторении измерения мы ино-
гда будем переоценивать время полного оборота диска, а иногда –
недооценивать. Таким образом, переменное время нашей реакции
проявится в различии полученных результатов. Анализируя раз-
брос в результатах методами статистики, мы можем получить
очень достоверную оценку ошибки этого (случайного) типа.
С другой стороны, если наш секундомер постоянно отстает,
то все измеренные значения времени будут недооценены и ника-
кое количество повторений измерений (с тем же секундомером) не
обнаружит этого источника ошибок. Ошибка такого типа называ-
ется систематической, поскольку она всегда систематически сме-
щает наш результат в одну и ту же сторону. Систематические
ошибки нельзя обнаружить статистическими методами.
В качестве второго примера проявления случайных и систе-
матических ошибок рассмотрим измерение точно определенной
длины с помощью рулетки. Один из источников погрешности – это
необходимость в интерполяции между делениями шкалы, и эта по-
грешность, очевидно, случайна (при интерполяции мы с равной
вероятностью как переоцениваем, так и недооцениваем результат).
Но имеется также вероятность того, что наша рулетка дефектна, а
это уже будет приводить к систематической ошибке.
Подобно этим двум примерам почти все измерения подвер-
жены как случайным, так и систематическим погрешностям. Не-
обходимо обратить внимание на то, что типичные источники слу-
чайных погрешностей – это небольшие ошибки наблюдателей (как
например, в случае с интерполяцией); небольшие помехи, воздей-
ствующие на аппаратуру (подобные механическим вибрациям) и
др. Наиболее очевидная причина систематических ошибок – это
раскалибровка измерительных приборов (отстающий секундомер,

19
вытянутая линейка, неустановленная точно на нуле стрелка прибо-
ра и др.).
Различия между случайными и систематическими ошибками
не всегда можно ясно определить. Например, при изменении по-
ложения головы наблюдателя по отношению к типичному стре-
лочному прибору результаты считывания могут изменяться. Этот
эффект называется параллаксом, и он приводит к тому, что пра-
вильное считывание со шкалы возможно только в случае, когда
взгляд наблюдателя направлен точно по перпендикуляру к стрел-
ке. Однако даже очень аккуратному наблюдателю не всегда удает-
ся правильно направить свой взгляд на стрелку, а потому измере-
ния будут содержать малые погрешности, связанные с параллак-
сом, и эти погрешности будут, вероятно, случайными. С другой
стороны, неосторожный экспериментатор, который поставит стре-
лочный прибор сбоку от себя и забудет о влиянии параллакса, вне-
сет систематическую ошибку во все свои измерения. Таким обра-
зом, один и тот же эффект параллакса может привести и к случай-
ным, и к систематическим погрешностям.
Учет случайных ошибок совершенно отличен от учета сис-
тематических. Статистические методы дают достоверную оценку
случайных погрешностей и, как мы увидим ниже, указывают на
точно определенный способ их уменьшения. Систематические
ошибки бывает трудно оценить и даже обнаружить. Опытный на-
блюдатель должен уметь предвидеть возможные источники систе-
матических ошибок и позаботиться о том, чтобы все систематиче-
ские ошибки были меньше требуемой точности наблюдения. Для
этого потребуется, например, проверка используемых приборов по
принятым стандартам, или даже, если необходимо, приобретение
более совершенных приборов.
Если мы производим n измерений некоторой величины X
(используя одну и ту же аппаратуру и метод измерения) и получа-
ем n значений: x1 , x 2 ,..., x n , то наилучшей оценкой величины X
будет ее среднее значение:

20
n
∑ xi
i =1
X наил = X = .
n
Если принять, что X – это наилучшая оценка величины X ,
то естественно рассмотреть разность x i − X = d i . Эта разность,
называемая отклонением (или остатком) x i от X , показывает, на-
сколько результат i-го измерения отличается от своего среднего
значения. Если все d i малы, то наши измерения сделаны сравни-
тельно точно, в противном случае – результаты грубы.
Часто вместо d i находят среднее квадратическое отклонение:
n
∑ (x i − X )
2

i =1
σ= .
n

1.2.1. Особенности обработки ограниченного числа


наблюдений. Оценки для неизвестных параметров
закона распределения
На практике часто приходится иметь дело со статистическим
материалом весьма ограниченного объема, на основе которого не-
обходимо (хотя бы ориентировочно) определить важнейшие чи-
словые характеристики случайной величины. Если вид закона рас-
пределения случайной величины известен заранее, то требуется
оценить только некоторые параметры, от которых он зависит (на-
пример, для нормального закона распределения – это математиче-
ское ожидание и среднее квадратическое отклонение, для закона
Пуассона – только математическое ожидание). Наконец, в некото-
рых задачах вид закона распределения вообще несущественен, а
требуется знание только числовых характеристик.
Рассмотрим ряд задач об определении неизвестных парамет-
ров, от которых зависит закон распределения случайной величины,
по ограниченному числу опытов.

21
Прежде всего, надо отметить, что любое значение искомого
параметра, вычисленное на основе ограниченного числа опытов,
всегда будет содержать элемент случайности. Такое приближенное
случайное значение мы будем называть оценкой параметра. На-
пример, оценкой для математического ожидания может служить
среднее арифметическое наблюдаемых значений случайной вели-
чины в n независимых опытах. При очень большом числе опытов
среднее арифметическое будет с большой вероятностью весьма
близко к математическому ожиданию. Если же число опытов n
невелико, то замена математического ожидания средним арифме-
тическим приводит к какой-то ошибке. Эта ошибка в среднем тем
больше, чем меньше число опытов. Также будет обстоять дело и с
оценками других неизвестных параметров генеральной совокупно-
сти. Любая из таких оценок случайна; при пользовании ею неиз-
бежны ошибки. Желательно выбрать такую оценку, чтобы эти
ошибки были по возможности минимальны.
Рассмотрим следующую общую задачу. Имеется случайная
величина X , закон распределения которой содержит неизвестный
параметр а. Требуется найти подходящую оценку для параметра а
по результатам n независимых опытов, в каждом из которых ве-
личина X приняла определенные значения: x 1 , x 2 ,..., x n .
Обозначим через ~ a оценку параметра а, которая естественно
есть функция x i i = 1,2,...,n
~ a (x1 , x 2 ,..., x n )
a=~
и, следовательно, сама является случайной величиной. Закон рас-
пределения ~a зависит, во-первых, от закона распределения вели-
чины X (в частности, от самого неизвестного параметра а) и, во-
вторых, от числа опытов n . Предъявим к оценке ~ a ряд требова-
ний, которым она должна удовлетворять, чтобы быть в каком-то
смысле «доброкачественной» оценкой.
Естественно потребовать от оценки ~a , чтобы при увеличении
числа опытов N она приближалась (сходилась по вероятности) к

22
параметру а. Оценка, обладающая таким свойством, называется
состоятельной.
Желательно, чтобы, пользуясь величиной ~a , мы, по крайней
мере, не делали систематической ошибки в сторону завышения
или занижения, т. е. чтобы выполнялось условие:
M(~a)= a .
Оценка, удовлетворяющая такому условию, называется не-
смещенной.
Наконец, желательно, чтобы выбранная несмещенная оценка
обладала (по сравнению с другими) наименьшей дисперсией, т. е.
D(~a ) = min . Оценка, обладающая таким свойством, называется эф-
фективной.
На практике не всегда удается удовлетворить всем этим трем
требованиям. Например, может оказаться, что даже если эффек-
тивная оценка существует, формулы для ее вычисления оказыва-
ются слишком сложными и приходится удовлетворяться другой
оценкой, дисперсия которой несколько больше. Иногда применя-
ются, в интересах простоты расчетов, незначительно смещенные
оценки. Однако выбору оценки всегда должен предшествовать ее
критическое рассмотрение со всех перечисленных выше точек
зрения.

1.2.2. Оценки для неизвестных параметров генеральной


совокупности: математического ожидания
и дисперсии
Пусть в результате наблюдений случайная величина Х при-
няла какие-то значения x1 , x 2 ,..., x n . Математическое ожидание и
дисперсия генеральной совокупности этой случайной величины
неизвестны. Требуется найти для них «доброкачественную оцен-
ку».
В качестве оценки для математического ожидания естествен-
но принять среднее арифметическое выборки:

23
n
∑ xi
~ =X=
m . i =1
x
n
Согласно Закону больших чисел эта оценка является состоя-
тельной, так как при увеличении опытов n величина m~ сходится
по вероятности к m .
Оценка m ~ является и несмещенной, так как
x

⎛ n ⎞
⎜ ∑ xi ⎟
~ ) = M (X ) = M⎜ i=1 ⎟ = 1 M⎛⎜ x ⎞⎟ = 1 M (X ) = 1 nm = m .
n n
M (m x ∑ ∑
⎜ n ⎟ n ⎝ i=1 i ⎠ n i=1 n
x x
⎜ ⎟
⎝ ⎠
Здесь и в дальнейшем используется условие, что операции
суммирования и математического ожидания перестановочны.

⎛ n ⎞
⎜ ∑ xi ⎟
~ ) = D⎜ i =1 ⎟ = 1 nD = D x
Дисперсия оценки D(m x x .
⎜ n ⎟ n2 n
⎜ ⎟
⎝ ⎠
Эффективность или неэффективность оценки зависит от вида
закона распределения случайной величины Х. Можно доказать,
что если Х распределена по нормальному закону, то дисперсия бу-
дет минимально возможной, т. е. оценка m~ является эффектив-
x
ной. Для других законов распределения это может быть и не так.
Перейдем теперь к оценке для неизвестной дисперсии D x ге-
неральной совокупности. Наиболее естественной оценкой пред-
ставляется дисперсия выборки D в .
n
∑ (x i − X )
2
~ i =1
D x = Dв = .
n
Проверим, является ли эта оценка состоятельной. Для этого
выразим оценку через начальные оценочные моменты α ~ (где це-
k
лочисленный индекс к определяет порядок момента):

24
~ ~ −α~2.
D = Dв = α 2 1
Из Закона больших чисел при n → ∞ оценочные моменты
выборки сходятся по вероятности к соответствующим начальным
моментам генеральной совокупности, т. е. с вероятностью P → 1
~ →α , α~ → α , а потому D ~
α1 1 2 2 x → D x , и мы можем утверждать, что
оценка состоятельна.
~ ~
Проверим, является ли оценка D несмещенной: M D = D . ( )
Найдем сначала
2 n
n
⎛ n ⎞ n n
∑ x i2 ⎜∑ i ⎟
x ∑ i ∑ i
x 2
x 2
∑ xix j
~ ~ ~2 − ⎜ i=1 ⎟ = i=1 − i=1 2 − 2
i =1 i < j
D=α 2 − α1 = =
n ⎜ n ⎟ n n n 2
⎜ ⎟
⎝ ⎠
n
∑ xix j
n −1 n 2 i< j
= 2 ∑ xi − 2 .
n i=1 n2
Теперь найдем
~ n −1 ⎛ n
( ) ⎞ 2 ⎛n ⎞ n −1 n
( )
M D = 2 M⎜ ∑ x i2 ⎟ − 2 M⎜⎜ ∑ x i x j ⎟⎟ = 2 ∑ M x i2 − 2 ∑ M (x i x j ).
2 n
n ⎝ i=1 ⎠ n ⎝ i< j ⎠ n i=1 n i< j
Так как дисперсия не зависит от выбора начала координат, то
~ . Так как опыты независимы, то
выберем его в точке X = m x

M (x i x j ) = M⎜ X i ⎟M⎜ X j ⎟ = K ij = 0 , где M⎜ X i ⎟ и M⎜ X j ⎟
⎛ 0 ⎞ ⎛ 0 ⎞ ⎛ 0 ⎞ ⎛ 0 ⎞
⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠
– математические ожидания центрированных величин, K ij – вто-
рой центральный смешанный корреляционный момент.
~ n −1 n −1
Поэтому M (D ) = 2 nD x = Dx .
n n
Из последнего выражения видим, что оценка по выборке не
является несмещенной для дисперсии генеральной совокупности,
~
т. е., пользуясь оценкой D = D в , мы будем совершать некоторую
систематическую ошибку в меньшую сторону. Чтобы ликвидиро-

25
вать это смещение, достаточно ввести поправку, умножив величи-
~ n
ну D на . Получим
n −1
⎛ n ~⎞ n n −1
M⎜ D⎟ = D x = D x несмещенную оценку.
⎝ n −1 ⎠ n −1 n
Итак,
n n
∑ (x i − X ) ∑ (x i − X )
2 2
n ~ n n i =1 i =1
D= Dв = = .
n −1 n −1 n −1 n n −1

Такую исправленную статистическую дисперсию мы и выбе-


рем в качестве оценки для неизвестной дисперсии D генеральной
совокупности.
n
Заметим, что множитель → 1 при n → ∞ , а это означа-
n −1
ет, что при достаточно большой выборке обе оценки – смещенная
и несмещенная будут различаться очень мало и введение попра-
вочного множителя теряет смысл. На практике рекомендуют вво-
дить поправочный коэффициент при выборке, содержащей менее
30 наблюдений.
~
Оценка D для дисперсии генеральной совокупности не явля-
ется эффективной. Однако в случае нормального закона распреде-
ления случайной величины она является асимптотически эффек-
тивной, т. е. при увеличении числа опытов N отношение ее дис-
персии к минимально возможной по вероятности неограниченно
стремится к 1.
Итак, при обработке ограниченного числа наблюдений для
оценки математического ожидания и дисперсии генеральной сово-
купности рекомендуется пользоваться приближенными оценками:
n n
∑ xi ∑ (x i − m
~) 2

~= i −1 ~
m и D − i=1 .
n n −1

26
1.3. Множественное линейное уравнение регрессии.
Множественный коэффициент корреляции
Общий случай
Имеем n опытов, в каждом из которых наблюдаются величи-
ны Y, X1, X2,..., Xm, где X1, X2, ..., Xm – факторы, или предикторы,
от которых может зависеть Y-предиктант.
В процессе наблюдений
Y изменяется: Y1, Y2, Y3,..., Yn ,
X1 – X11, X12, X13, ..., X1n,
X2 – X21, X22, X23, ..., X2n,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .,
Xm – Xm1, Xm2, Xm3, ..., Xmn,
т. е. факторы Xhj , где h = 1, 2, 3, 4, ..., m; j = 1, 2, 3, 4, ..., n.
Парные коэффициенты корреляции между Y и каждым из
факторов в общем виде можно записать в следующем виде:
n

∑ (y i − y )(x hi − x h )
rhy = i =1
, (1.3.1)
nσ y σ h
где h = 1, 2, …, m.
Парный коэффициент корреляции между факторами:

− x h )(x ji − x j )
n

∑ (x hi
rhj = i =1
, (1.3.2)
nσ h σ j
где h, j = 1, 2, …, m.
Уравнение линии связи (линейной):
y − y = ∑ a j (x j − x j ),
m
(1.3.3)
j=1

Коэффициенты линейной связи наилучшим образом можно


найти методом наименьших квадратов:

Ф = ∑ [ y i − y − ∑ a j (x ji − x j )] 2 = min .
n m

i =1 j=1

27
Дифференцируя последнее уравнение по каждому неизвест-
ному a j , получаем систему m уравнений:
∂Ф n ⎡ ⎤
= 2 ∑ ⎢ y i − y − ∑ a j (x ji − x j )⎥[− (x hi − x h )] = 0 .
m

∂a j i =1 ⎢
⎣ j =1 ⎥⎦

Или

∑ ∑ a j (x ji − x j )(x hi − x h ) = ∑ (y i − y )(x hi − x h ) .
n m n

i =1 j=1 i =1

Учитывая уравнения (1.3.1) и (1.3.2), имеем:


m
∑ a jrhjnσ h σ j =r hy nσ y σ h .
j =1

Деля обе части последнего уравнения на nσ h , получаем:


m
∑ a jrhjσ j = r hy σ y .
j=1

Разделим обе части последнего выражения на σ y :


m σj
∑a r
j=1
j hj
σy
= r hy . (1.3.4)

Обозначим:
σj
aj = β j , откуда
σ y

σy
a j = βj , j = 1, 2, 3, …, m (1.3.5)
σj
Система уравнений (1.3.4) примет вид:
m
∑ β j rhj =r hy , т. е.
j=1

⎧ β1r11 + β 2 r12 + β3r13 + β4 r14 + ... + β m r1m = r1y ,


⎪ β r + β r + β r + β r + ... + β r = r
⎪ 1 21 2 22 3 23 4 24 m 2m 2 y,

⎪ ........................................................................,
⎪⎩β1rm1 + β 2 rm 2 + β3rm 3 + β4 rm 4 + ... + β m rmm = rmy .

28
В последней системе r11 = r22 = r33 = r44 = ... = rmm = 1 ,
неизвестные β1 , β2 , β3 ,...., β m .
Определитель системы имеет вид:
1 r12 ... r1m
r 1 ... r2 m
D = 21 .
... ... ... ...
rm1 rm 2 ... 1

Если D ≠ 0 , то находим определители D1 , D 2 , D3 ,..., D m путем


последовательной замены соответствующих столбцов определите-
ля столбцом свободных членов.
Неизвестные коэффициенты определяем:
D1 D D D
β1 =, β 2 = 2 , β 3 = 3 , ..., β m = m .
D D D D
Подставляя найденные β j в (1.3.5), определим все a j в так
называемом сигмальном масштабе.
Подставив a j в (1.3.3), найдем уравнение линейной связи:
y = a 0 + a1x1 + a 2 x 2 + ... + a m x m ,
где a 0 = y − a1x1 − a 2 x 2 − ... − a m x m .
Множественный коэффициент линейной корреляции имеет
вид:

R = β1 r1y + β 2 r2 y + β 3 r3 y + ... + β m rmy .


Во всех системах уравнений коэффициенты β j выражены че-
рез σ j и σ y . Поэтому говорят, что уравнения записаны в сигмаль-
ном масштабе. Применение σ -масштаба позволяет выявить наибо-
лее влияющие факторы на прогнозируемую величину. Согласно
свойству сигмального масштаба коэффициенты β1 , β 2 , β 3 ,..., β m пока-
зывают весомость, степень влияния каждого фактора. Так напри-

29
β1
мер, если отношение > 1 , то можно утверждать во сколько раз
β2
фактор X1 влияет на изменение величины Y больше (сильнее), чем
фактор X 2 . Кроме того, знак перед коэффициентом β j показыва-
ет направленность действия соответствующего j-го фактора: знак
«+» – с увеличением фактора имеет тенденцию в среднем возрас-
тать Y-предиктант; знак «-» указывает на обратное влияние, т. е. с
увеличением фактора X j предиктант Y имеет тенденцию в сред-
нем убывать.
Необходимо отметить, что с увеличением учета числа факто-
ров коэффициенты β j могут по абсолютной величине уменьшать-
ся, т. е. дополнительный фактор уточняет влияние других величин.
Например, мы рассмотрели влияние на Y двух величин X1 и X 2 и
нашли коэффициенты β1 и β 2 . Если при включении нового фак-
тора X 3 , величины β1 и β 2 почти не изменились по абсолютной
величине, то влияние фактора X 3 несущественно и его нецелесо-
образно включать в рассмотрение. Если β1 и β 2 изменились, то
влияние X 3 желательно учитывать.
Множественный коэффициент корреляции иногда называют
совокупным коэффициентом корреляции. Квадрат множественно-
го коэффициента корреляции принято называть коэффициентом
детерминации.
Заметим, что формула расчета множественного коэффициен-
та корреляции записана в сигмальном масштабе в самом общем
виде, т. е. для любого количества факторов.
Свойства множественного коэффициента корреляции:
1) 0 ≤ R ≤ 1 , в отличие от парного коэффициента корреляции
множественный не показывает направленность действия факторов,
так как он только положительный (направленность факторов ха-
рактеризуют коэффициенты β j ).

30
2) R = 1 – связь между рассматриваемыми величинами функ-
циональная.
3) R = 0 – Y не может быть линейно связан с X j . Нелинейная
связь может иметь место.

Частные случаи
1) Z зависит от двух факторов X и Y , причем каждая пе-
ременная измеряется N раз.
Тогда формулы (1.3.1) и (1.3.2) принимают вид:
n n
∑ (z i − z )(x i − x ) ∑ (z i − z )(y i − y )
rzx = i =1 rzy = i =1 ,
nσ z σ x nσ z σ y

∑ (x i − x )(yi − y )
rxy = i =1
. (1.3.6)
nσ x σ y

Уравнение связи: z − z = a1 (x − x ) + a 2 (y − y ) .
n
Ф = ∑ [(z i − z ) − a1 (x i − x ) − a 2 (y i − y )]2 = min .
i =1
Далее,
∂Ф n
= −2 ∑ [(z i − z ) − a1 (x i − x ) − a 2 (y i − y )](x i − x ) = 0 ,
∂a1 i =1

∂Ф n
= −2 ∑ [(z i − z ) − a1 (x i − x ) − a 2 (y i − y )](y i − y ) = 0 .
∂a 2 i =1

Или
⎧ n n n
⎪⎪a1 ∑ (x i − x ) + a 2 ∑ (y i − y )(x i − x ) = ∑ (z i − z )(x i − x ),
2

⎨ i =n1 i =1
n
i =1
n
⎪ a1 ∑ (x i − x )(y i − y ) + a 2 ∑ (y i − y )2 = ∑ (z i − z )(y i − y ).
⎪⎩ i =1 i =1 i =1

Используя (1.3.6), имеем:

31
⎧⎪a 1 rxx nσ 2x +a 2 ryx nσ y σ x = rzx nσ z σ x ,
⎨ 2
⎪⎩ a 1 rxy nσ x σ y + a 2 ryy nσ y = rzy nσ z σ y .
Учитывая, что rxx = ryy = 1 , и деля обе части первого уравне-
ния на nσ x , а второго – на nσ y , получим:
⎧ a 1σ x + a 2 ryx σ y = rzx σ z ,

⎩ a 1rxy σ x + a 2 σ y = rzy σ z .

rzx σz ryx σ y σx rzx σz


rzy σz σy rxy σ x rzy σz
a1 = , a2 = ,
σx ryx σ y σx ryx σ y
rxy σ x σy rxy σ x σy

σx σy
R = β1rxz + β 2 ryz , β1 = a1 , β2 = a 2 .
σz σz

Уравнение линейной связи: z = a 0 + a1x + a 2 y , где a 0 = z − a1x − a 2 y .

2) Y зависит только от Х.
Уравнение связи: y − y = a (x − x ) или y = y + ax − ax , или
y = a 0 + ax , где a 0 = y − ax
n
∑ (x i − x )(y i − y )
i =1
rxy = ,
nσ x σ y

n
Ф = ∑ [(y i − y ) − a (x i − x )]2 = min .
i =1

∂Ф n
= −2∑ [(y i − y ) − a (x i − x )](x i − x ) = 0 ,
∂a i =1

n n
∑ a (x i − x ) = ∑ (y i − y )(x i − x ) ,
2

i =1 i =1

anrxx σ 2x = rxy nσ x σ y , или arxx σ x = rxy σ y ,

32
σy
a = rxy , так как rxx = 1.
σx
Уравнение связи:
σ σy
y − y = rxy y (x − x ) , или y = rxy (x − x ) + y , или
σx σx

σy σy
y = a 0 + rxy x, где a 0 = y − rxy x.
σx σx

1.4. Метод наименьших квадратов


Установление вида теоретической связи между случайными
величинами представляет одну из основных задач при их изуче-
нии. В предыдущем параграфе рассмотрено уравнение линейной
регрессии в самом общем виде и его частные случаи. К сожале-
нию, возможности метода ограничены только случаем линейной
зависимости. Однако случайные величины могут быть зависимы,
но некоррелированы (значение коэффициента корреляции близко к
0) и приходится искать другой (нелинейный) тип связи. На прак-
тике исследователь из каких-то соображений гипотезирует вид
теоретической зависимости, коэффициенты которой находятся ме-
тодом наименьших квадратов. Суть метода – найти коэффициенты
гипотезируемой зависимости таким образом, чтобы сумма квадра-
тов отклонений эмпирических точек предиктанта от их теоретиче-
ски рассчитанных была наименьшей. Рассмотрим применение ме-
тода наименьших квадратов для различных видов связи.

1.4.1. Линейная связь между двумя случайными


величинами
Имеем n наблюдений за двумя величинами X : x1 , x 2 ,..., x n и
Y : y1 , y 2 ,..., y n . Пусть расположение точек (x i .y i ) , где i = 1 ÷ n

33
наводит исследователя на мысль о линейной зависимости между
случайными величинами:
y = ax + b . (1.4.1)
Коэффициенты a , b в этой зависимости – неизвестны. Найдем их
согласно требованиям метода наименьших квадратов:
2
( )
n
Φ = ∑ y i теор − y i эмп = min , где yi теор – рассчитанные теорети-
i =1
ческие, yi эмп – эмпирические (наблюдаемые) значения величины
Y. Иначе последнее равенство можно записать:
n 2

Φ = ∑ (ax i + b − y i ) = min . (1.4.2.)


i =1

Выполняя условие экстремума (минимума), продифференци-


руем (1.4.2) по неизвестным a и b . Получим нормальную систе-
му уравнений:
⎧ ∂Φ n
⎪⎪ ∂a = 2 ∑ (ax i + b − y i )x i = 0
i =1 или

∂Φ n
⎪ = 2∑ (ax i + b − y i ) = 0
⎪⎩ ∂b i =1

⎧ n 2 n n
⎪⎪ ∑ i
a x + b ∑ i ∑ x i yi
x =
⎨ i =1 n i =1
n
i =1 (1.4.3)
⎪ a ∑ x i + bn = ∑ y i
⎪⎩ i =1 i =1

Решая (1.4.3), найдем:


D1 D
a= , b = 2 , где D – определитель системы; D1 и D 2 – опре-
D D
делители, полученные из определителя D путем замены соответ-
ственно первого и второго столбца столбцом свободных членов
системы (1.4.1). Для обеспечения единственности решения должен
определитель системы D ≠ 0 . Подставив найденные коэффициенты
a и b в уравнение (1.4.1), найдем теоретическое уравнение связи.

34
Естественно, что результаты, полученные в предыдущем парагра-
фе с использованием сигмального масштаба, должны полностью
совпадать с результатами, полученными методом наименьших
квадратов. С помощью среднего квадратического отклонения
можно оценить погрешность полученных расчетных значений:

∑ (y i теор − y i эмп )
n
2

i =1
δ= .
n
Совершенно очевидно, что по аналогии можно найти коэф-
фициенты множественного линейного уравнения регрессии.

1.4.2. Построение нелинейных уравнений множественной


регрессии
В процессе n наблюдений
Y изменяется: Y1, Y2, Y3,..., Yn ,
X1 – X11, X12, X13, ..., X1n,
X2 – X21, X22, X23, ..., X2n,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .,
Xm – Xm1, Xm2, Xm3, ..., Xmn .
Пусть зависимость имеет степенной вид:

y = a 0 x 1a 1 x a2 2 ...x amm . (1.4.4)

Прологарифмируем (основание логарифма значения не име-


ет, пусть это – 10).
lg y = lg a 0 + a 1 lg x 1 + a 2 lg x 2 + ... + a m lg a m .
Параметры уравнения определим методом наименьших
квадратов при условии:
n 2
Φ = ∑ (lga 0 + a1 lg x1i + a 2 lg x 2i + ... + a m lg x mi − lg y i ) = min .
i =1

35
Продифференцировав по всем a j ( j = 0 ÷ m ) и сделав преобра-
зования, получим нормальную систему m + 1 уравнений с m +1
неизвестными a 0 , a 1 , a 2 ,..., a m :

⎧ n n n n
⎪n lg a 0 + a1∑ lg x 1i + a 2∑ lg x 2i + ... + a m∑ lg x mi ∑lg yi ,
=
⎪ i=1 i=1 i=1 i=1
⎪ n n n n n
⎪lga0 ∑lgx1i + a1∑(lgx1i ) + a 2 ∑(lgx2i lgx1i ) + ...+ a m ∑(lgxmi lgx1i ) = ∑(lgyi lgx1i ),
2
⎨ i=1 i=1 i=1 i=1 i=1
⎪.........................................................................................................................................................,

⎪ n n n n n
⎪lga0 ∑lgxmi + a1∑(lgx1i lgxmi ) + a 2 ∑(lgx2i lgxmi ) + ...+ a m ∑(lgxmi ) = ∑(lg yi lgxmi ),
2 2

⎩ i=1 i=1 i=1 i=1 i=1

Если определитель системы D ≠ 0 , то


D1 D D3 D
lg a 0 = , lg a1 = 2 , lg a 2 = ,..., lg a m = m +1 , откуда
D D D D
a 0 = 10 D1 D
, a1 = 10 D 21 D
, …, a m = 10 D m +1 D
.
Замечание. Для удобства и краткости теоретических вы-
кладок решения уравнений записаны в виде определителей, хотя
известно, что на практике решать с помощью формул Крамера
удобно только системы не выше 3-го порядка. Если системы со-
держат более трех уравнений, то надо воспользоваться одним из
методов исключения неизвестных (например, метод Гаусса с вы-
бором или без выбора главного элемента, метод Жордана–Гаусса
и др.).
Найденные коэффициенты подставим в (1.4.4).
Совершенно аналогично можно рассмотреть тип регрессии
показательный, логарифмический, тригонометрический и пр. Наи-
меньшая ошибка (невязка) позволяет предпочесть ту или иную за-
висимость.
Аналитическое решение задачи определения коэффициентов
корреляционных уравнений не представляет большой трудности.

36
Однако на практике способ наименьших квадратов иногда бывает
неудобен, так как, приступая к вычислениям, мы часто не имеем
сведений относительно порядка корреляционного уравнения, ко-
торое давало бы достаточно точное приближение эмпирических
точек к графику теоретического вида связи. Поэтому приходится
постепенно повышать порядок корреляционного уравнения, а это
приводит к тому, что необходимо записывать новую нормальную
систему уравнений и проводить вновь всю вычислительную рабо-
ту. Для устранения этих неудобств П. Л. Чебышев предложил осо-
бый способ решения задачи подбора полиномов того или иного
порядка. По способу Чебышева члены уравнения более высокого
порядка прибавляются последовательно к уравнению порядка на
единицу ниже, полученному в предыдущих расчетах. Погрешность
нового уравнения оценивается при условии сохранения погрешно-
сти предыдущего уравнения. Если погрешность (невязка) нового
уравнения с требуемой точностью не превосходит предыдущей не-
вязки, то исследователь останавливает свой уже обоснованный
выбор на предыдущем уравнении.
Замечание. На практике корреляционную связь выше 3-го по-
рядка используют редко вследствие быстрого накопления ошибок
округления при работе с большими выборками.

37
2. СЛУЧАЙНЫЕ ФУНКЦИИ

2.1. Основные понятия


Классическая теория вероятностей оперирует со случайными
величинами, значения которых не зависят от времени или какого-
либо другого параметра и при неоднократном воспроизведении
одного и того же опыта меняются случайным образом. Предполо-
жим, что результатом опыта является теперь не число, а некоторая
функция одного или нескольких аргументов, причем эта функция
при повторении (реализации) опытов в одинаковых условиях мо-
жет каждый раз случайным образом менять свой вид. Такую
функцию будем называть случайной, а результат каждого отдель-
ного опыта – возможной реализацией случайной функции. Таким
образом, случайную функцию можно определить как множество
или ансамбль всех ее реализаций.
Условимся обозначать случайные функции прописными бук-
вами с указанием в скобках аргумента, например U(t), V(t), H(t), а
их возможные реализации соответствующими строчными буквами
с индексами, указывающими номер опыта, при котором данная
реализация получена, например u1(t), u2(t), u3(t), … , uN(t).
В качестве примера можно рассмотреть данные срочных на-
блюдений на гидрометеорологической станции за температурой
воздуха какого-либо определенного дня выбранного месяца (на-
пример, 15 мая) в течение нескольких лет (например, пяти). Пред-
ставим эти наблюдения в виде графика (рис. 1). Наблюдения за от-
дельный год – это реализации: u1(t), u2(t), u3(t), u4(t), u5(t).

38
о
U(t), С

20
U5 (t)
15
U4 (t)
U3 (t)
10 U1 (t)U2 (t)
5

0 3 6 9 12 15 18 21 [t,ч

Рис. 1. График изменения температуры воздуха


в течение одного дня 15 мая за несколько лет

Если зафиксировать аргумент случайной функции t = ti и


провести прямую, перпендикулярную оси абсцисс, то эта прямая
пересечет каждую реализацию только в одной точке. Совокуп-
ность таких точек пересечения называют сечением случайной
функции и обозначают U(ti). Очевидно, каждое сечение случайной
функции представляет собой случайную величину, возможные
значения которой – это значения функции в точках пересечения
при t = ti . Поэтому случайную величину можно рассматривать как
частный случай случайной функции при фиксированном значении
аргумента.
На рис. 1 сечение случайной функции показано при t = 6 ч.
Оно представляет собой случайную величину с возможными зна-
чениями температуры, характерными для выбранного дня в задан-
ное время суток.
Используя понятие сечения, можно случайную функцию оп-
ределить как совокупность или множество всех ее сечений. Однако
можно поступить и наоборот, определив случайную функцию как

39
функцию, значение которой при любом фиксированном значении
аргумента является случайной величиной U(ti).
Аргумент t может принимать либо любые вещественные зна-
чения в заданном интервале, либо только определенные дискрет-
ные значения. В первом случае случайную функцию называют
процессом, во втором – случайной последовательностью. Все гид-
рометеорологические процессы развертываются во времени не-
прерывно, однако ряды наблюдений мы, как правило, имеем в дис-
кретном виде. Обычно для простоты такого разделения не делают
и часто используют термин «случайный процесс» безотносительно
к физической природе аргумента.
Надо отметить, что аргументом случайной функции может
быть не только время.
Понятие случайной функции хорошо отражает сущность
всех гидрометеорологических явлений. Так, например, уровень во-
ды в реке (или водохранилище) меняется во времени случайным
образом в зависимости от количества осадков, таяния снега, ин-
тенсивности оросительных мероприятий, солнечной радиации и
пр.; дождевые осадки и сток изменяются во времени и по площади
водосбора; аналогично меняются скорость инфильтрации и ин-
фильтрационная способность почвы, распределение консерватив-
ных и неконсервативных загрязняющих ингредиентов в атмосфе-
ре, водотоках, водоемах, почве. Турбулентный характер атмосфер-
ных процессов влечет крайнюю изменчивость метеорологических
величин во времени и в пространстве. При этом интенсивные тур-
булентные пульсации имеют место как для крупномасштабных
процессов, так и для движений самого малого масштаба. Наличие
турбулентности приводит к тому, что начальные условия не опре-
деляют полностью течение процесса и, следовательно, опыты,
проведенные при одинаковых внешних условиях, будут приводить
к различным результатам.

40
2.2. Основные характеристики
случайной функции
В классической теории вероятностей случайная величина Х
считается полностью определенной с вероятностной точки зрения,
если известна ее функция распределения
F(x ) = P(X < x ) ,
где Р – вероятность.
Известно, что случайный процесс U(t ) можно рассматривать
как совокупность всех его сечений, каждое из которых представ-
ляет собой случайную величину. Поэтому, если мы имеем n сече-
ний случайного процесса: U(t 1 ), U(t 2 ), U(t 3 ),..., U(t n ), то этот слу-
чайный процесс мы можем приближенно охарактеризовать функ-
цией распределения полученной системы случайных величин
F(u 1 , u 2 , u 3 ,..., u n ) = P(U 1 < u 1 , U 2 < u 2 , U 3 < u 3 ,..., U n < u n ).
Очевидно, что эта функция распределения тем точнее будет
характеризовать случайный процесс, чем ближе друг к другу будут
расположены сечения и чем больше число n их взято. Исходя из
этого, случайный процесс U (t ) считают заданным, если для каж-
дого значения аргумента t определена функция распределения
случайной величины:
F1 (U; t ) = P[U (t ) < u ],

а также для каждой пары сечений t1 и t 2 аргумента t опреде-


лена функция распределения системы двух случайных величин
U i = U (t i ) и U j = U (t j ) :

F2 (U i , U j ; t i , t j ) = P(U i < u i, U j < u j ) ; i, j = 1,2,..., n ,

и вообще для любых n значений t 1 , t 2 ,..., t n аргумента t определена


n -мерная функция распределения
Fn (U1 , U 2 ,..., U n ; t1, t 2 ,..., t n ) = P(U1 < u1, U 2 < u 2 ,..., U n < un )

41
случайных величин U1 = U(t 1 ), U 2 = U(t 2 ), ..., U n = U(t n ) .
Если существуют смешанные частные производные от мно-
гомерной функции распределения, то можно записать многомер-
ный дифференциальный закон распределения (многомерную
функцию плотности вероятности):

∂ n Fn (U1 , U 2 ,..., U n ; t1, t 2 ,..., t n )


.
∂u1∂u 2 ...∂u n
Случайный процесс будет полностью охарактеризован толь-
ко в том случае, если заданы все многомерные функции распреде-
ления.
Очевидно, что теоретически можно неограниченно увеличи-
вать число сечений и получать при этом все более полную харак-
теристику случайного процесса. Однако установить вид много-
мерных функций распределения и оперировать столь громоздкими
характеристиками, зависящими от многих аргументов, крайне не-
удобно, и в этом далеко не всегда есть необходимость. Поэтому на
практике более чем двумерные законы распределения применяют-
ся крайне редко. Часто для изучения случайных функций (также
как и случайных величин в теории вероятностей) оказывается дос-
таточным знание лишь некоторых основных характеристик, опи-
сываемых начальными и центральными моментами распределения.
Начальным моментом порядка q1 + q 2 + ... + q n случайной
функции U(t) называется математическое ожидание произведения
соответствующих степеней ее различных сечений:
{ }
α q1 , q 2 ,..., q n (t1 , t 2 ,..., t n ) = M [U(t1 )]q1 [U(t 2 )]q 2 ...[U(t n )]q n .

В частности, начальный момент первого порядка:


q1 + q 2 + ... + q n = 1 – это математическое ожидание случайной
функции при фиксированном значении аргумента (т. е. по задан-
ному ансамблю)

42
α1 (t ) = M[U (t )] = m u (t ) , причем

⎧+ ∞
⎪ ∫ uf1 (u; t )dx при непрерывном t,

α1 (t ) = ⎨− ∞N
⎪ ∑ u p (u; t ) при дискретном t.
⎪⎩ k =1 k k

Здесь и далее предполагается, что интеграл абсолютно схо-


дится; k = 1, 2, … , N – число реализаций; f1 (u; t ) – одномерная
функция плотности распределения; p k (u; t ) – вероятность возмож-
ного значения случайной функции в заданном сечении.
Очевидно, что математическое ожидание имеет размерность,
равную размерности рассматриваемой величины, и обладает теми
же свойствами, которые рассматриваются в классической теории
вероятностей.
Математическое ожидание (теоретическое среднее) является
уже неслучайной функцией и дает представление о центре, вокруг
которого при заданном t группируются значения различных реали-
заций случайной функции. Например, в качестве случайной функ-
ции мы будем рассматривать среднегодовые температуры как
функции глубины в заданном районе океана. При этом каждая реа-
лизация из ансамбля будет представлять собой график изменения
среднегодовой температуры по глубине за определенный год, а
математическое ожидание сечения – многолетнюю среднегодовую
температуру на определенной глубине. Обычно при изучении гид-
рометеорологических процессов математические ожидания, полу-
ченные осреднением по всем реализациям, представляют собой
климатическую норму.
Из всех начальных моментов случайной функции самостоя-
тельное значение имеет только первый, остальные моменты, более
высоких порядков, используются как вспомогательные для вычис-
ления центральных моментов или их частных случаев, когда мате-

43
матическое ожидание случайной функции равно нулю. Записать
начальный момент любого порядка не представляет трудности.
Так, начальные моменты второго порядка q1 + q 2 + ... + q n = 2 мо-
гут быть двух типов:

• для одного и того же сечения случайной функции –


{
α2 (t ) = M [U (t )]2 } и

• смешанный момент второго порядка для двух различных


сечений – α1,1 = M[U (t i )U (t j )].

Центральным моментом порядка q1 + q 2 + ... + q n случайной


функции U(t) называется математическое ожидание произведения
соответствующих степеней ее центрированных сечений:
⎧⎪⎡ o ⎤ q1 ⎡ o ⎤ 2 ⎡ o ⎤ n ⎫⎪
q q
μ q1 ,q 2 ,...,q n (t 1 , t 2 ,..., t n ) = M ⎨⎢ U(t 1 )⎥ ⎢ U(t 2 )⎥ ...⎢ U(t n )⎥ ⎬ ,
⎪⎩⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎪⎭
o o
где U(t 1 ) = U(t 1 ) − m u (t 1 ), ... , U(t n ) = U(t n ) − m u (t n ) – центриро-
ванные сечения.

Центральные моменты нулевого и первого порядков не пред-


ставляют самостоятельного интереса, так как всегда равны посто-
янным величинам, соответственно единице и нулю. Центральные
моменты второго порядка можно представить, во-первых, для од-
ного и того же сечения случайной функции:
⎧⎪ ⎡ o ⎤ 2 ⎫⎪
μ 2,0 (t ) == M ⎨ ⎢ U (t )⎥ ⎬ = M[U (t ) − m u (t )]2
⎪⎩ ⎣ ⎦ ⎪⎭
и, во-вторых, для двух различных сечений случайной функции:

⎡o ⎤
[ ]
μ1,1 (t1 , t 2 ) = M ⎢ U (t i ) U (t j )⎥ = M{[U (t i ) − m u (t i )] U (t j ) − m u (t j ) }.
o

⎣ ⎦

44
Момент μ 2,0 (t ) является функцией одного аргумента t
(t = t i = t j ) и при каждом фиксированном его значении представля-
ет собой дисперсию соответствующего сечения случайной функ-
ции:
μ 2 , 0 ( t ) = D U (t ) .

Дисперсия – это уже неслучайная величина, имеющая раз-


мерность квадрата размерности рассматриваемой случайной функ-
ции, и обладает теми же свойствами, которые рассматриваются в
классической теории вероятностей. Положительный квадратный
корень из дисперсии называют средним квадратическим отклоне-
нием в данном сечении случайной функции: σ U (t ) = D U (t ) , кото-
рое имеет уже размерность, совпадающую с размерностью самой
случайной функции, и характеризует разброс случайных значений
рассматриваемого сечения около своего центра рассеяния (матема-
тического ожидания). В гидрометеорологических исследованиях
этот разброс от нормы часто называют аномалиями, изучение ко-
торых представляет самостоятельный интерес.
Момент μ1,1 (t i t j ) для каждой пары t i и t j есть момент связи
или корреляционный момент между соответствующими сечениями
случайной функции. Его обычно обозначают μ1,1 (t i t j ) = K ij (t i , t j ) и
называют корреляционной (автокорреляционной), или ковариаци-
онной функцией случайного процесса, которая обладает всеми
свойствами, рассматриваемыми в классической теории вероятно-
стей для корреляционных моментов. Очевидно, что при t i = t j = t
корреляционная функция превращается в дисперсию.
Из определения корреляционной функции следует ее сим-
метричность относительно аргументов, т. е.
K u (t i , t j ) = K u (t j , t i ) . (2.2.1)
На практике часто вместо корреляционной функции рассмат-
ривают безразмерную нормированную корреляционную (автокор-
реляционную) функцию

45
K u (t i , t j )
R u (t i , t j ) = ,
σ u (t i )σ u (t j )

которая для каждой фиксированной пары значений t i и t j пред-


ставляет коэффициент корреляции, характеризующий степень тес-
ноты линейной зависимости между соответствующими сечениями
случайной функции. В общем виде нормированная корреляцион-
ная функция для n сечений случайного процесса представима в
виде матрицы парных коэффициентов корреляции между соответ-
ствующими сечениями, в которой все диагональные элементы
равны единице, а элементы, симметричные главной диагонали (в
силу свойства симметричности корреляционных функций) равны
между собой:

1 R12 ... R1n


R 21 1 ... R 2 n
R ij (t i , t j ) = ,
... ... ... ...
R n1 R n 2 ... 1

i, j = 1,2,3,..., n; R u (t i , t j ) = R ij ; R 11 = R 22 = R 33 = ... = R nn = 1.

При решении многих прикладных задач часто бывает доста-


точно знать только первый начальный и второй центральный мо-
менты. Причем для нормально распределенных случайных про-
цессов эти характеристики являются исчерпывающими. Следует
указать, что раздел теории случайных функций, оперирующий
только с математическим ожиданием и корреляционными функ-
циями, называют корреляционной теорией случайных функций.

2.3. Система случайных функций


На практике приходится иметь дело одновременно с не-
сколькими случайными функциями. Так, например, при изучении
таких случайных процессов, как испарение приходится совместно

46
рассматривать ряд случайных процессов: температуру, ветер, дав-
ление атмосферы, солнечную радиацию и др.; при изучении потерь
стока рассматривают перехват, испарение, задержание в бессточ-
ных депрессиях, инфильтрацию. Поэтому, кроме рассмотренных
выше характеристик для каждой случайной функции, существен-
ным является еще установление связи между различными функ-
циями. Начальные моменты первого порядка совпадают с матема-
тическими ожиданиями соответствующих случайных функций.
Центральные моменты второго порядка могут быть двух видов: во-
первых, можно рассматривать второй центральный момент для
двух сечений одной и той же случайной функции (это мы делали в
предыдущем параграфе); во-вторых – для двух сечений, принад-
лежащих разным случайным функциям. При этом полученный
корреляционный момент называют корреляционной функцией свя-
зи, или взаимной корреляционной функцией между двумя случай-
ными функциями.
Рассмотрим, например, систему двух случайных процессов:
U(t ) и V(t ) . В корреляционной теории ее характеристиками будут:
m u (t ), m v (t ), K u (t i , t j ), K v (t i , t j ), а также корреляционная функция
связи:
[ ]
K uv (t i , t j ) = M{[U (t i ) − m u (t i )] V (t j ) − m v (t j ) },

которая характеризует степень линейной зависимости между се-


чениями U(t i ) и V(t j ). В частном случае, при t i = t j корреляцион-
ная функция будет характеризовать степень линейной зависимости
сечений случайных процессов U(t ) и V(t ) , соответствующих од-
ному и тому же значению аргумента.
Корреляционная функция связи K uv (t i , t j ) не является сим-
метричной относительно своих аргументов: K uv (t i , t j ) ≠ K uv (t j , t i ) ,
но обладает тем свойством, что при одновременной перестановке
аргументов и индексов выполняется равенство:

47
K uv (t i , t j ) = K vu (t j , t i ). (2.3.1)

Легко показать, что и автокорреляционная функция, и корре-


ляционная функция связи не изменяется при добавлении к каждой
из них неслучайных слагаемых (студентам предлагается выпол-
нить доказательство самостоятельно). Используя этот факт, часто
вместо самого случайного процесса рассматривают центрирован-
ный случайный процесс (с математическим ожиданием, равным
нулю).
Безразмерную величину

K uv (t i , t j )
R uv (t i , t j ) =
σ u (t i )σ v (t j )

называют нормированной корреляционной функцией связи, кото-


рая для любой пары фиксированных аргументов t i и t j пред-
ставляет собой коэффициент корреляции случайных величин U(t i )
( )
и V t j . Если R uv (t i , t j ) = 0 , то случайные процессы называются
несвязными. Также как и для случайных величин, условие несвяз-
ности является необходимым, но недостаточным для независимо-
сти случайных процессов (оно характеризует только отсутствие
линейной зависимости).
Для характеристики N случайных процессов
U1 (t ), U 2 (t ), ... , U N (t ) для фиксированных сечений в корреляцион-
ной теории достаточно задать N математических ожиданий, N
корреляционных функций и N (N–1) корреляционных функций
связи.
Корреляционные функции и корреляционные функции связи
удобно записывать в виде корреляционной матрицы

48
(
K11 t i , t j ) (
K12 t i , t j ) ( )
... K1N t i , t j
(
K 21 t i , t j ) (
K 22 t i , t j ) ( )
... K 2 N t i , t j
( )
K sg t i , t j =
... ... ... ...
,

(
K N1 t i , t j ) (
K N2 ti , t j ) (
... K NN t i , t j )
( )
в которой для краткости записи K u s u g t i , t j = K sg t i , t j , и при s = g( )
(по главной диагонали) записаны корреляционные функции, а при
s ≠ g – корреляционные функции связи между сечениями различ-
ных случайных процессов (s, g = 1, 2, …, N).

2.4. Суммирование случайных функций


Пусть случайная функция W(t) представляет собой сумму
двух случайных функций
W(t) =U(t)+V(t). (2.4.1)

При каждом фиксированном t ее математическое ожидание,


согласно свойству математического ожидания суммы случайных
величин, равно
m w (t ) = m u (t ) + m v ( t ) . (2.4.2)
Найдем корреляционную функцию:
⎡o ⎤
[ ( ) ( )]}
o
( ) ( ) {
K w t i , t j = M ⎢ W (t i ) W t j ⎥ = M [W (t i ) − m w (t i )] W t j − m w t j .
⎣ ⎦
Подставим в последнее равенство (2.4.1) и (2.4.2), получим:

[ ][ ]
K w (t i , t j ) = M{ U(t i ) + V(t i ) − m u (t i ) − m v (t j ) U(t j ) + V(t j ) − m u (t j ) − m v (t j ) }.

Сделаем преобразования, сгруппировав члены так, чтобы по-


лучить соответствующие центрированные случайные функции.

49
Тогда
⎧⎡ o o ⎤⎡ o o ⎤⎫
( )
K w t i , t j = M ⎨⎢ U(t i ) + V(t i )⎥ ⎢ U t j + V t j ⎥ ⎬. ( ) ( )
⎩⎣ ⎦⎣ ⎦⎭
Перемножим двучлены под знаком математического ожида-
ния. Получим:
⎡o o o o o o o o ⎤
( ) ( ) ( ) ( )
K w t i , t j = M ⎢ U ( t i ) U t j + V ( t i ) V t j + U (t i ) V t j + V ( t i ) U t j ⎥ .( )
⎣ ⎦
Используя свойство математического ожидания (математи-
ческое ожидание алгебраической суммы случайных величин равно
той же сумме математических ожиданий этих величин), оконча-
тельно имеем
⎡o o ⎤ ⎡o o ⎤ ⎡o o ⎤ ⎡o o ⎤
( ) ( ) ( ) ( )
Kw t i , t j = M⎢U(t i ) U t j ⎥ + M⎢V(t i ) V t j ⎥ + M⎢U(t i ) V t j ⎥ + M⎢V(t i ) U t j ⎥ = ( )
⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

= K u (t i , t j ) + K v (t i , t j ) + K uv (t i , t j ) + K vu (t i , t j ). (2.4.3)

Таким образом, мы видим, что для определения корреляци-


онной функции суммарного случайного процесса необходимо
знать корреляционные функции каждого слагаемого процесса и
корреляционные функции связи этих процессов.
В частном случае, когда процессы U (t ) и V(t ) не связны, то
K w (t i , t j ) = K u (t i , t j ) + K v (t i , t j ) , (2.4.4)

так как K uv (t i , t j ) = K vu (t i , t j ) = 0.
Если случайная функция состоит из N слагаемых
N
W (t ) = ∑ U g (t ) ,
g =1

то формулы (2.4.2), (2.4.3) и (2.4.4) можно соответственно обоб-


щить следующим образом:
N
m w (t ) = ∑ m u g ( t ) ,
g =1

50
K w (t i , t j ) = ∑ K u g (t i , t j ) + ∑ K u g u s (t i , t j ) ,
N N

g =1 g <s

K w (t i , t j ) = ∑ K u g (t i , t j ) .
N

g =1

2.5. Стационарные случайные функции


Наиболее простым для изучения является особый класс слу-
чайных процессов – стационарные случайные процессы, статисти-
ческие свойства которых практически не изменяются с изменени-
ем аргумента.
Случайный процесс U(t ) называется строго стационарным
(или стационарным в узком смысле), если все его конечномерные
законы распределения f n (u1 , u 2 ,..., u n ; t1 , t 2 ,..., t n ) произвольного
порядка n не изменяются при любом сдвиге всей группы точек
t1 , t 2 ,..., t n вдоль оси t, т. е. при любом n и t 0 справедливо равен-
ство:

f n (u1, u 2 ,...,u n ; t1, t 2 ,..., t n ) = f n (u1, u 2 ,...,u n ; t1-t0, t 2 − t 0 ,..., t n − t 0 ) . (2.5.1)

Следовательно, плотность распределения инварианта относитель-


но сдвига начала отсчета аргумента t.
Заметим, что термин «стационарность» возник при изучении
случайных функций времени и характеризует постоянство их
свойств во времени. Для случайных процессов, аргументом кото-
рых является другая переменная, например расстояние, вводится
термин «однородность». Обычно термин «однородность» приме-
няют к случайным полям, характеризуя их однородность в про-
странстве, а под стационарностью поля понимают постоянство его
статистических свойств во времени, хотя иногда вместо стацио-
нарности говорят об однородности по времени.

51
Полагая в (2.5.1) t 0 = t1 , получим

f n (u1,u 2,...,u n ; t 1,t 2,...,t n ) = f n (u1,u 2,...,u n ; 0, t 2 − t1,...,t n − t1 ) .

Мы видим, что n-мерные плотности распределения вероятно-


стей зависят не от абсолютного положения значений t 1,t 2 ,...,t n на
оси t, а от их относительного расположения, а именно от разностей
t 2 − t1 ,..., t n − t1 . Это значит, что всякое перемещение начала отсче-
та по оси времени преобразует совокупность реализаций случай-
ной функции в саму себя таким образом, что ее статистические ха-
рактеристики не изменяются. Данное определение стационарно-
сти налагает слишком много ограничительных условий на случай-
ные процессы, и на практике их невозможно даже проверить. Из
равенства (2.5.1) следует, что для стационарного случайного про-
цесса n-мерная плотность распределения вероятностей зависит не
от n, а от n-1 значений аргумента, так как одно из значений аргу-
мента всегда можно принять за начало отсчета (например, поло-
жить t 1 = 0 ). Отсюда ясно, что одномерная плотность распределе-
ния вероятностей
f1 (u; t ) − f1 (u; t - t 0 ) = f1 (u; 0) − f1 (u )

не зависит от t и является одной и той же для всех сечений случай-


ного процесса.
Двумерная плотность распределения вероятностей

f 2 (u1, u 2 ; t1, t 2 ) = f 2 (u1, u 2 ; t1 - t 0 , t 2 − t 0 ) = f 2 (u1, u 2 ; 0, t 2 − t1 ) =

= f 2 (u1 , u 2 ; t 2 − t1 ) = f 2 (u1 , u 2 ; τ ) ,
где τ = t 2 − t1 зависит только от одного аргумента τ – сдвига сече-
ний по координатной оси t.
Для двух произвольных сечений стационарной функции дву-
мерную плотность распределения вероятностей в общем виде мож-
но записать

52
f 2 (u i , u j ; t i , t j ) = f 2 (u i , u j ; t i - t 0 , t j − t 0 ) = f 2 (u i , u j ; 0, t j − t i ) =

= f 2 (u i , u j ; 0, t j − t i ) = f 2 (u i , u j ; τ ).

Тогда основные характеристики стационарного случайного


процесса имеют вид:
+∞ +∞
m u (t ) = ∫ uf1 (u; t )du = ∫ uf1 (u )du = m u = const . (2.5.2)
−∞ −∞

+∞ +∞
K u (t i .t j ) = ∫ ∫ (u i − m u )(u j − m u )f 2 (u i , u j ; τ )du i du j = K u (τ ) . (2.5.3)
−∞ −∞

Очевидно, что при τ = 0 K ij (τ ) = K u (0) = D u = const . Следо-


вательно, математическое ожидание и дисперсия являются посто-
янными величинами для всех сечений стационарного процесса.
Эти условия равносильны, например, утверждению о постоянстве
климата и физико-географических условий формирования стока, т.
е. отрицанию возможности изменения их во времени. Корреляци-
онная функция стационарного случайного процесса является
функцией только одного аргумента, т. е. коэффициент корреляции
между сечениями U (t i ) и U (t j ) для любых t i и t j не меняется при
сдвиге на время τ , иначе говоря, такой же коэффициент корреля-
ции будет между сечениями U (t i + τ ) и U (t j + τ ).
Условия (2.5.2) и (2.5.3) являются необходимыми, но недос-
таточными условиями стационарности. Это означает, что если
процесс стационарен, то эти условия выполняются всегда. Обрат-
ное утверждение не гарантирует стационарность при n ≥ 3 . Одна-
ко при решении большинства практических задач гидрометеороло-
гии многомерные плотности распределения ( n > 2) применяются
очень редко, а из гипотезы стационарности используют лишь ус-
ловия (2.5.2) и (2.5.3), что значительно упрощает описание случай-
ных процессов. В связи с этим в корреляционной теории выделяют

53
класс случайных процессов, для которых выполняются условия
(2.5.2) и (2.5.3). Такие процессы называют стационарными в широ-
ком смысле. В общем случае стационарность в широком смысле не
тождественна стационарности в узком смысле. Случайные функ-
ции, стационарные в узком смысле, будут стационарны и в широ-
ком смысле, но не наоборот. Но имеется целый класс стационар-
ных процессов, для которых понятие стационарности в узком и
широком смысле совпадают. Это – нормальные стационарные
процессы, для которых функция плотности вероятностей полно-
стью определена математическим ожиданием и корреляционной
функцией. В дальнейшем, когда речь будет идти о стационарно-
сти, мы будем иметь в виду именно стационарность в широком
смысле.
Из симметричности корреляционной функции (см. свойство
(2.2.1)) следует и четность корреляционной функции стационарно-
го случайного процесса: K u (τ ) = K u (− τ ) .
На практике условия стационарности можно непосредствен-
но проверить, вычислив средние значения, дисперсии и корреля-
ционные функции для разных моментов времени. Если значения
средних и дисперсий постоянны для всех сечений, а коэффициен-
ты корреляции между любыми двумя сечениями не зависят от по-
стоянного сдвига, то процесс стационарен.

2.5.1. Система стационарных случайных функций


Пусть имеем систему случайных процессов U1 , U 2 ,..., U N . Эта
система называется стационарной в широком смысле, или стацио-
нарно связной, если в этом смысле стационарен каждый из процес-
сов, входящих в систему, а корреляционные функции связи явля-
ются функциями только одного аргумента τ

K sg (t i , t j ) = K sg (τ) , s, g = 1,2,..., N .

54
Здесь, как и в п. 2.2, обозначено K sg (t i , t j ) = K u s u g (t i , t j ).
Опираясь на свойство корреляционных функций (2.3.1), можно за-
писать K sg (τ) = K gs (− τ) , т. е. корреляционную функцию связи двух
стационарных процессов можно описать одной корреляционной
функцией связи, заданной как при положительных, так и отрица-
тельных значениях аргумента, при этом функция K sg (τ) в общем
случае не является четной.
Из изложенного ясно, что принятие гипотезы стационарно-
сти случайных функций приводит к значительному упрощению
описания их статистических свойств, что позволило, в свою оче-
редь, разработать эффективные математические методы, исполь-
зуемые при прогнозировании. Для нестационарных функций ре-
шение этих вопросов связано с большими трудностями. Поэтому
всякую случайную функцию, с которой имеют дело на практике,
прежде всего, пытаются рассматривать с точки зрения возможно-
сти считать ее стационарной. Для процессов, имеющих место в ат-
мосфере и гидросфере, гипотеза об их стационарности хорошо оп-
равдывается для сравнительно небольших интервалов времени или
расстояний. С увеличением интервалов изменения аргумента на-
блюдается и нарушение стационарности. Так, для гидрологиче-
ских рядов гипотеза о стационарности считалась достаточно есте-
ственной в течение длительного времени. Однако все возрастаю-
щая хозяйственная деятельность человека на водосборе, а также
возможные антропогенные изменения климата требуют в настоя-
щее время обоснование этой гипотезы для каждого конкретного
водосбора. Антропогенные изменения стока приводят к тому, что
стационарные распределения приходится строить либо по очень
коротким рядам, либо по неоднородным гидрологическим рядам,
что создает огромные проблемы в обеспечении устойчивости ста-
тистических параметров.
Аналогичные замечания можно сделать и для других гидро-
метеорологических характеристик. Несмотря на то, что нарушение

55
стационарности приводит к изменению математического ожидания
рассматриваемой гидрометеорологической величины, тем не ме-
нее, стационарность в смысле независимости корреляционной
функции от начала отсчета сохраняется с достаточно допустимым
на практике приближением. Исходя из этого, часто на практике
вместо самого случайного процесса целесообразно рассматривать
центрированный случайный процесс, так как этот процесс можно
уже считать стационарным с постоянным математическим ожида-
нием, равным нулю, а корреляционные функции центрированного
и исходного процессов совпадают. Поэтому для многих процессов
атмосферы и гидросферы на основе большого статистического ма-
териала различными авторами предложены разнообразные корре-
ляционные функции, общими свойствами которых являются: 1)
стремление их к нулю при возрастании аргумента, и 2) максималь-
ные значения этих функций, равные дисперсиям случайных про-
цессов, достигаются при нулевом значении аргумента. Если мы
рассматриваем стационарный процесс с корреляционной функцией
K u (τ ) , то ее максимум будет при τ = 0 , в то время как корреляци-
онная функция связи K uv (τ ) максимума при τ = 0 может не дости-
гать. Действительно, влияние одного процесса на другой может
происходить с некоторым запаздыванием, например нагревание
воды за счет солнечного излучения происходит лишь спустя неко-
торое время τ . В этом случае значение корреляционной функции
связи между сечениями этих процессов при интервале τ , отлич-
ном от нуля, будет больше, чем между одновременными сечения-
ми этих процессов. Наличие такого запаздывания может служить
причиной несимметричности корреляционной функции связи от-
носительно аргумента τ , т. е. K uv (τ ) ≠ K uv (− τ ) .
С некоторыми видами корреляционных функций мы позна-
комимся ниже.

56
2.6. Положительно определенные функции
Для убедительности доказательств последующих утвержде-
ний введем понятие положительно определенной функции.
Функция f(t), удовлетворяющая неравенству

∑ ∑ αi α jf (t i − t j ) ≥ 0 для любых наборов t1, t 2 ,..., t n и любых n ве-


n n

i =1 j=1

щественных α1 , α2 ,..., α n называется положительно определенной.


Рассмотрим сумму такого вида для стационарной корреляци-
онной функции K u (τ )

2
( ) ⎡o
( )⎤ ⎡n ⎤
n n n n o o
∑∑ i j u i j ∑∑ ⎢ i
α α K t − t = M U ( t ) U t α α
j ⎥ i j = M ⎢ ∑ α1 U ( t i )⎥ ≥ 0.
i =1 j=1 i =1 j=1 ⎣ ⎦ ⎣i =1 ⎦

Для стационарного случайного процесса начало отсчета мо-


жем принять при t i = t j . Последняя сумма не может быть отрица-
тельной, так как рассматривается математическое ожидание вели-
чины, возведенной в квадрат.
Таким образом, корреляционная функция стационарного
случайного процесса представляет собою положительно опреде-
ленную функцию.
Справедливым является и обратное утверждение: всякая по-
ложительно определенная функция является корреляционной
функцией некоторого стационарного случайного процесса.

2.7. Свойство эргодичности случайных процессов


Стационарные случайные процессы могут обладать замеча-
тельным свойством, получившим название свойства эргодичности.
Рассмотрим подробнее смысл этого свойства. До сих пор мы опре-
деляли основные характеристики случайного процесса путем ос-
реднения по множеству реализаций. Но возможен и другой способ

57
осреднения, если мы располагаем одной реализацией достаточной
продолжительности. При этом если связь между сечениями слу-
чайного процесса убывает быстро, то отдельные части реализации
мы имеем право рассматривать как независимые между собой. По-
этому совокупность таких отдельных n частей одной реализации
мы можем принимать за совокупность n самостоятельных реали-
заций. Для стационарных процессов нам известно, что математи-
ческое ожидание и дисперсия не зависят от аргумента, поэтому
можно, не разделяя реализацию на отдельные части, определить
эти характеристики по всей данной реализации:

2
1 Δt 1 Δt
mu = ∫
Δt 0
u ( t ) dt ; D u = ∫ [u (t ) − m u ] dt;
Δt 0

1 Δt
K u (t ) = ∫ [u (t ) − m u ][u (t + τ) − m u ]dt ,
Δt 0

где Δt – длина интервала, на котором задана реализация.


Возникает закономерный вопрос: будут ли характеристики
случайного процесса, полученные путем осреднения по совокуп-
ности реализаций, совпадать с соответствующими характеристи-
ками, найденными путем осреднения только по одной реализации.
Оказывается, что это выполняется не для всех стационарных
функций.
Говорят, что стационарные функции обладают свойством эр-
годичности, если статистические характеристики, полученные пу-
тем осреднения по множеству реализаций в данный момент време-
ни, с вероятностью, сколь угодно близкой к единице, равны стати-
стическим характеристикам, полученным путем осреднения по
достаточно длительному интервалу времени одной единственной
реализации.

58
Здесь использовано известное из теории вероятностей поня-
тие сходимости по вероятности, которое, например, для среднего
значения по реализации может быть записано в виде:

lim P( U t − m u < ε ) = 1 , (2.7.1)


Δt → ∞

где U t – средняя по реализации за интервал времени Δt , m u –


средняя по множеству реализаций в данный момент времени, ε –
бесконечно малая величина.
Равенство (2.7.1) дает достаточные основания для того, что-
бы на практике можно было вместо m u использовать значение U t ,
где Δt сравнительно велико. Поэтому остается выяснить, при ка-
ких условиях для Δt на практике выполнимо условие (2.7.1), так
как при наличии наблюдений на малом интервале изменения аргу-
мента можно получить искомые характеристики с недопустимо
большими ошибками. Опуская подробные доказательства, которые
можно найти, например, в двухтомнике Монина А. С., Яглома А.
М., заметим, что Тейлором было доказано: для дисперсии разно-
стей между истинным значением, полученным осреднением по од-
ной реализации при достаточно большом Δt , справедлива асим-
птотическая формула:
τ
D ≈ 2 0 K u (0 ) , где Δt – интервал осреднения, τ0 – величина, назы-
Δt
1 ∞
ваемая временем корреляции, причем τ0 = ∫ K u (τ)dτ .
K u (0 ) 0
Отсюда видно, что для надежного определения искомых ха-
рактеристик по одной единственной реализации необходимо брать
интервал осреднения Δt во много раз больше, чем время корреля-
ции τ0 , которое иногда называют «временным масштабом корре-
ляции». Физический смысл этого условия состоит в том, что при
τ > τ0 величины могут считаться независимыми.

59
Надо отметить, что отдельные реализации случайного про-
цесса могут иметь свои специфические особенности, например,
колебания вокруг различных средних. В этом случае среднее зна-
чение, полученное по одной реализации, может значительно отли-
чаться от среднего по ансамблю реализаций.
По отношению к корреляционной функции свойства эрго-
дичности формулируются гораздо сложнее, а потому проверку их
на практике осуществить в основном не удается. В связи с этим
выводы об эргодичности делают, как правило, на основе сообра-
жений о физической сущности случайного процесса.
Выполнение свойства эргодичности имеет большое значение,
так как для определения статистических характеристик достаточно
располагать одной реализацией, что мы обычно и имеем на прак-
тике. Например, в гидрометеорологии далеко не всегда удается
осуществить многократное повторение эксперимента в одинако-
вых условиях, и потому все ряды наблюдений на гидрометеороло-
гических станциях и постах практически представляют собою
единственную реализацию. Если же мы все-таки располагаем не-
сколькими реализациями, полученными в одинаковых условиях,
то, пользуясь свойством эргодичности, можно получить статисти-
ческие характеристики осреднением по каждой реализации, а за-
тем взять в качестве искомых среднее арифметическое из них с
учетом веса каждой реализации.

2.8. Структурная функция


Из стационарных процессов наиболее важны процессы со
стационарными приращениями
ΔU = U(t + τ) − U(t ) .
Математическое ожидание квадрата приращений (разности
сечений, соответствующих двум значениям аргумента) называется
структурной функцией B u (τ ) :

60
[ ] {
B u (τ ) = M (ΔU )2 = M [U(t + τ) − U(t )]2 . } (2.8.1)

Впервые структурная функция была введена А. Н. Колмого-


ровым для описания статистической теории турбулентного движе-
ния. Из определения структурной функции видно, что она неотри-
цательна, т. е. Bu (τ ) ≥ 0 .
Выразим структурную функцию через корреляционную. В
формуле (2.8.1) сделаем тождественные преобразования путем до-
бавления и вычитания одной и той же величины m u :
{ } { }
Bu (τ) = M [U(t + τ) − U(t ) − mu + mu ]2 = M [U(t + τ) − mu ] − [U(t ) − mu ]2 =

{ } { }
= M [U(t + τ ) − m u ]2 + M [U(t ) − m u ]2 − 2M{[U(t + τ) − m u ][U(t ) − m u ]} =

= K u (0 ) + K u (0 ) − 2K u (τ = 2[K u (0) − K u (τ )]) . (2.8.2)

Из последнего равенства видно, что структурная функция


четна, т. е. Bu (τ ) = Bu (− τ ) , так как K u (τ ) = K u (− τ ) . Заметим, что
четность структурной функции следует и из ее определения (3.5.1).
При τ = 0 равенство (2.8.2) принимает вид:
Bu (τ ) = 2[K u (0 ) − K u (0 )] = 0 .

Этот же результат можно было получить из определения


(2.8.1).
Если для случайного процесса выполняется условие
lim K u (τ) = 0 , то
τ→0

lim Bu (τ ) = 2K u (0 ) = 2σ2u . (2.8.3)


τ→0
Обозначим
lim Bu (τ) = Bu (∞ ) . (2.8.4)
τ→0

61
Тогда равенство (2.8.2) с условиями (2.8.3) и (2.8.4) примет вид:

Bu (τ) − Bu (∞ )
Bu (τ ) = Bu (∞ ) − 2K u (τ ) , или K u (τ ) = .
2

Естественно, что на практике мы не имеем реализации на


бесконечном интервале, т. е. не можем знать структурную функ-
цию, соответствующую бесконечному аргументу. Однако в боль-
шинстве случаев структурная функция довольно быстро достигает
некоторого предельного значения, начиная с которого при даль-
нейшем увеличении аргумента она фактически не меняется или
меняется незначительно. Поэтому B u (∞ ) часто называют насы-
щающим значением структурной функции.
Для стационарного случайного процесса, обладающего эрго-
дическим свойством, структурную функцию, как и корреляцион-
ную, можно найти по одной единственной реализации по формуле:
2
1 Δt
Bu (τ ) = ∫ [u (t + τ) − u (t )] dt .
Δt 0
Во многих случаях использование структурной функции бы-
вает предпочтительнее, чем корреляционной.
Поясним это утверждение. Гидрометеорологические процес-
сы, вообще говоря, нельзя считать стационарными. В качестве
примеров, подтверждающих нестационарность, можно привести
известный факт потепления Арктики в последние годы, изменение
климата и речных стоков под влиянием хозяйственной деятельно-
сти человека (строительство гидроэлектростанций на больших ре-
ках) и пр. В этом случае средние значения гидрометеорологиче-
ских величин, а также и другие статистические характеристики,
определенные за различные периоды времени, ведут себя неустой-
чиво. На структурную функцию, исходя из ее определения (2.8.1),
нестационарность длинноволновых возмущений не оказывает су-
щественного влияния при малых значениях аргумента τ . Кроме

62
того, систематические ошибки, содержащиеся в данных различных
сечений, при вычислении структурных функций взаимопогашают-
ся. Таким образом, использование структурных функций в ряде
случаев позволяет уменьшить нестационарность (неоднородность)
случайного процесса и нивелировать систематические ошибки.
Однако преимущества структурных функций существенны только
при малых значениях τ . При вычислении же корреляционных
функций через структурные точность корреляционных функций не
повышается из-за ошибок вычисления насыщающего значения
структурной функции.

2.9. Случайные поля


2.9.1. Основные понятия
Мы рассмотрели случайные функции одного аргумента, в ка-
честве которого в частном случае могло быть время. Однако в гид-
рометеорологии приходится в основном иметь дело со случайны-
ми функциями, зависящими не только от времени, но и от про-
странственных координат. Такое пространственно-временное рас-
пределение получило название поля физической величины, или
случайного поля. Например, такие гидрометеорологические про-
цессы, как выпадение атмосферных осадков, испарение с подсти-
лающей поверхности и т. д. образуют трехмерные поля, компонен-
тами которых являются две географические координаты и время.
Поля скорости, температуры в пограничном слое атмосферы – это
функции уже четырех аргументов (трех пространственных коор-
динат и времени).
С точки зрения математики можно рассматривать координа-
ты некоторого трехмерного или четырехмерного (а в общем случае
– n-мерного) пространства как вектор с соответствующими этому
пространству компонентами, например λ(x , y, z, t ) , а потому со-
кращенно обозначать случайное поле U(λ ) . Далее, по аналогии со

63
случайными процессами, случайное поле можно рассматривать как
множество всех его реализаций или множество всех его сечений,
понимая под сечением случайного поля случайную величину, по-
лученную при фиксированных значениях всех его аргументов
(иначе, при фиксированном λ ). Следовательно, простой заменой t
на λ все формулы, полученные для случайных процессов, будут
иметь место и для случайных полей. Поэтому для случайного поля
по аналогии можем записать n-мерную функцию распределения:

Fn (U1 , U 2 ,..., U n ; λ1, λ 2 ,..., λ n ) = P(U1 < u1 , U 2 < u 2 ,..., U n < u n ) ,

n-мерную плотность распределения

∂ n Fn (U1 , U 2 ,..., U n ; λ1, λ 2 ,..., λ n )


= f n (u1 , u 2 ,..., u n ; λ1, λ 2 ,..., λ n ) ,
∂u1∂u 2 ...∂u n

первый начальный момент (математическое ожидание), называе-


мый иногда одноточечным начальным моментом первого порядка,

α1 (λ ) = M[U(λ )] = m u (λ ) ,

второй центральный момент (дисперсия), называемый иногда од-


ноточечным центральным моментом второго порядка,
⎧⎪⎡ o ⎤ 2 ⎫⎪
{
μ 2,0 (λ ) = M ⎨⎢ U(λ )⎥ ⎬ = M [U(λ ) − m u (λ )]2 = D u (λ ) , }
⎪⎩⎣ ⎦ ⎪⎭
второй центральный смешанный момент (корреляционная функ-
ция), называемый иногда двухточечным центральным моментом
(является функцией координат двух точек пространственно-
временной области),

[
μ1,1 (λ i , λ j ) = M ⎢ U(λi ) U (λ j )⎥ = M{[U(λ i ) − m u (λ i )] U (λ j ) − m u (λ j ) },
⎡o ⎤
]
o

⎣ ⎦

64
нормированную корреляционную функцию
K u (λ i , λ j )
R u (λ i , λ j ) = ,
σu (λ i )σu (λ j )

которая для каждой фиксированной пары точек λ i и λ j представ-


ляет коэффициент корреляции между двумя сечениями случайного
поля.
Записанные пространственно-временные моменты могут ха-
рактеризовать связь, во-первых, между значениями случайного по-
ля в одной и той же точке пространства за два различных момента
времени (временная связь, или временные моменты); во-вторых,
между двумя различными точками пространства в один и тот же
момент времени (пространственная связь, или пространственные
моменты); в-третьих, между двумя различными точками простран-
ства в два различных момента времени (пространственно-
временная связь). В первом случае фиксируются координаты про-
странства и имеют дело со случайными временными процессами,
которые мы подробно рассматривали выше. Во втором случае
фиксируется время и изучается случайное поле, которое является
функцией только пространственных координат (в гидрометеороло-
гии такими координатами являются широта, долгота и высота или
глубина). Третий случай является более общим, когда случайное
поле является функцией пространственных координат и времени.
Так, в гидрологии большое внимание уделяется анализу из-
менений стока и стокообразующих факторов во времени и в про-
странстве. Назначение этого анализа – выявить основные свойства
исследуемых процессов: изменчивость, цикличность, характери-
стики периодических и непериодических колебаний, преемствен-
ности в развитии и пр. и предсказать их поведение в будущем.
Поля метеорологических величин вследствие турбулентно-
сти атмосферы крайне изменчивы как в пространстве, так и во
времени. В частных случаях, фиксируя момент времени, мы мо-

65
жем рассматривать процессы синоптического характера; фиксируя
пространственные координаты, мы можем рассматривать эволю-
цию процесса в интересуемом месте.
Основное отличие пространственных рядов от временных
состоит в том, что их значения по пространственному аргументу
распределены неравномерно, так как точки наблюдений в про-
странстве в основном расположены на неравных расстояниях.
Временные процессы мы рассмотрели подробно, теперь ос-
тановимся на описании пространственных случайных полей.

2.9.2. Однородные и изотропные случайные поля


и их характеристики
Существенным в описании временных случайных процессов,
как мы видели, является условие их стационарности. Аналогичны-
ми упрощающими условиями для описания пространственных
случайных полей являются условия их однородности и изотропно-
сти.
Если все n-мерные законы распределения не изменяются при
любом сдвиге (параллельном переносе) системы точек λ1 , λ 2 ,..., λ n
на один и тот же вектор λ 0 , т. е. функции распределения (плотно-
сти распределения) не изменяются при замене сечений, соответст-
вующих точкам λ1 , λ 2 ,..., λ n , сечениями λ 1 − λ 0 , λ 2 − λ 0 ,..., λ n − λ 0

f n (u1, u 2 ,..., u n ; λ1, λ 2 ,..., λ n ) = f n (u1, u 2 ,..., u n ; λ1 − λ 0 , λ 2 − λ0 ,..., λ n − λ0 ) ,


то такое случайное поле называется однородным. Если при этом
конечномерные плотности вероятности не изменяются при все-
возможных вращениях системы точек λ1 , λ 2 ,..., λ n вокруг осей,
проходящих через начало координат, и при зеркальных отражени-
ях этой системы точек относительно плоскостей, проходящих че-
рез начало координат, то такое случайное поле называется одно-
родным и изотропным.

66
По аналогии с п. 2.5,
f1 (u; λ ) = f1 (u; λ - λ 0 ) = f1 (u; 0) = f1 (u ) ,

f 2 (u1 , u 2 ; λ1 , λ 2 ) = f 2 (u1 , u 2 ; λ1 - λ 0 , λ 2 - λ 0 ) = f 2 (u1 , u 2 ; 0, λ 2 - λ1 ) =

= f 2 (u1,u 2; λ 2 -λ1 ) = f 2 (u1,u 2; r ) ,


где r = λ 2 − λ1 зависит только от одного аргумента r – сдвига сече-
ний в пространстве.
Для двух произвольных сечений однородного изотропного
случайного поля двумерную плотность распределения вероятно-
стей в общем виде можно записать

f 2 (u i , u j ; λi , λ j ) = f 2 (u i , u j ; λ i - λ 0 , λ j - λ0 ) = f 2 (u i , u j ; 0, λ j - λi ) =
= f 2 (u i , u j ; λ j - λi ) = f 2 (u i , u j ; r ).

Соответствующие моменты примут вид:


+∞ +∞
m u (λ ) = ∫ uf1 (u; λ ) du = ∫ uf1 (u ) du = m u = const , (2.9.1)
−∞ −∞

+∞ +∞
K u (λi , λ j ) = ∫ ∫ (ui − mu )(u j − mu )f2 (ui , u j; r )duidu j = Ku (r ). (2.9.2)
−∞ −∞

Очевидно, что при r = 0 K u (r ) = K u (0 ) = D u = const .


Если случайные поля однородны и изотропны, то условия
(2.9.1) и (2.9.2) всегда выполняются. Обратное утверждение не
всегда верно. Однако в практике гидрометеорологических иссле-
дований выполнение названных условий ведет к значительному
упрощению обработки статистического материала. Поэтому, если
условия (2.9.1) и (2.9.2) выполняются, то, по аналогии с времен-
ными процессами, случайное поле называют однородным в широ-
ком смысле. Обычно, говоря об однородности и изотропности, в

67
практике гидрометеорологии понимают однородность в широком
смысле. Естественно, что для полей гидрометеорологических ха-
рактеристик турбулентного потока предположение об однородно-
сти даже в широком смысле всегда является некоторой идеализа-
цией, так как точно оно никогда не выполняется. Действительно,
говоря об однородности, необходимо потребовать, чтобы поток
заполнял все неограниченное пространство, а уже одно это пред-
положение является идеализацией в применении к реальным пото-
кам. Далее, необходимо, чтобы все средние характеристики потока
(скорость, давление, температура, влажность, соленость и пр.) бы-
ли постоянными во всем пространстве, и чтобы статистический
режим пульсаций не менялся при переходе от одной части про-
странства к другой. Разумеется, что эти требования могут выпол-
няться лишь с удовлетворительной точностью в пределах некото-
рых ограниченных областей пространства, малых по сравнению с
масштабами макроскопических неоднородностей и достаточно
удаленных от всех ограничивающих поток твердых стенок. Таким
образом, на практике можно говорить об однородности гидроди-
намических полей лишь в некоторой определенной области.
По аналогии с временными процессами можно говорить и
об осреднении пространственных полей по одной реализации в
том случае, если выполняется условие эргодичности, а именно:
однородное поле обладает свойством эргодичности, если все
случайные характеристики, полученные осреднением по одной
реализации, при безграничном увеличении диаметра области
сходятся по вероятности к соответствующим характеристикам,
полученным осреднением по всему множеству реализаций слу-
чайного поля.
Структурная функция однородного случайного поля имеет
вид:
{
B u (r ) = M [U(λ + r ) − U(λ )]
2
}
и по аналогии вывода в п. 2.8 имеем:

68
Bu (r ) − Bu (∞ )
K u (r ) = .
2
Для характеристики случайного поля, однородность которого
является лишь приближенной, использование структурных функ-
ций по сравнению с корреляционными иногда бывают предпочти-
тельнее.
В частности, это, например, имеет место при исследованиях
пространственной мезо- и макроструктуры гидрометеорологиче-
ских полей, когда широтные различия в притоке солнечной энер-
гии, различный характер воздушных течений над океанами и мате-
риками и др. вызывают нарушения однородности пространствен-
ных полей. Однако надо помнить, что по экспериментальным дан-
ным часто бывает трудно получить значение структурной функции
Bu (r ) , которое для достаточно больших расстояний можно было
бы принять за насыщающее значение Bu (∞ ) .

2.10. Экстраполяция, интерполяция


и сглаживание случайных функций
Рассмотрим несколько задач, наиболее часто встречающихся
в гидрометеорологии.
Пусть реализация u (t ) случайного процесса U(t ) на про-
межутке [0, Δt ] изменения аргумента t определена в результате
опыта с некоторой ошибкой v(t ) , представляющей в свою очередь
реализацию какого-то случайного процесса V(t ) . Так, что в ре-
зультате опыта получена реализация:
w ( t ) = u (t ) + v (t ) ,
где u (t ) – истинное значение реализации,
v(t ) – ошибка измерения.
Требуется определить истинное значение реализации u (t )
для некоторого аргумента t , т. е. отделить его от ошибки измере-

69
ния. Такую задачу называют задачей сглаживания, или фильтра-
ции случайного процесса.
В гидрометеорологии эта задача возникает при обработке
экспериментальных данных как задача сглаживания ошибок, неиз-
бежно сопутствующих всем измерениям из-за точности исполь-
зуемых методов, точности измерительных приборов и т. д.
Если по имеющейся реализации требуется дать прогноз ис-
тинной реализации u (t ) для значений аргумента t = Δt + T , где
Т > 0, то такую задачу называют задачей об экстраполяции со
сглаживанием, при этом величину Т часто называют упреждением.
Например, имеется ряд N наблюдений за годовым объемом стока.
Требуется предсказать объем стока за последующий (N+1)-й год.
При Т<0 эту задачу называют задачей об интерполяции со
сглаживанием. Например, 1) во временном ряду наблюдений за
годовым объемом стока есть пропущенные данные, которые тре-
буется восстановить; 2) по имеющимся в распоряжении картам
снята батиметрия водоема или рельеф местности с некоторым ша-
гом (например, 1 км). Для каких-то целей требуются данные с ша-
гом 500 м.
Заметим, что в качестве аргумента t может выступать не
только время, но и любая другая переменная, предположим рас-
стояние.
На практике мы почти всегда получаем реализацию интере-
сующего нас случайного процесса, включающую ошибки измере-
ния. Если измерения проведены с требуемой точностью, то гово-
рят в этом случае соответственно о «чистой» экстраполяции и
«чистой» интерполяции. Задачи об экстраполяции, интерполяции и
сглаживании можно рассматривать как единую задачу определе-
ния истинного значения реализации u (t ) при некотором значении
аргумента t 0 . Математическая формулировка такой задачи заклю-
чается в следующем. Известна реализация w (t ) = u (t ) + v(t ) на не-
котором промежутке [0, Δt ] изменения параметра t . Требуется оп-

70
ределить значение u (t 0 ) реализации u (t ) в момент t 0 ∈ [Δt , T ]: при
Т > 0 речь идет об экстраполяции; при Т < 0 – об интерполяции;
при Т = 0 – о сглаживании.
Поскольку мы имеем дело со случайными функциями, то нас
интересует нахождение такого способа решения задачи, который
бы давал наилучший в некотором смысле результат по всему мно-
жеству реализаций, т. е. нахождение такого оператора L, который
в применении к множеству реализаций W (t ) давал бы наилучшие
в некотором смысле значения реализации U (t 0 ):
U(t 0 ) = L[W (t )], или U(t 0 ) = L[U(t ) + V(t )] .
Естественно, возникает вопрос, что понимать под критерием
качества решения поставленной задачи. В рамках случайных про-
цессов качество оператора можно оценить лишь статистически, т.
е. в среднем по всему выбранному множеству реализаций случай-
ной функции.
Можно назвать наилучшим тот оператор L , который обра-
щает в минимум разность δ = U (t 0 ) − L[W (t )] .
Однако с математической точки зрения наиболее удобным
критерием качества является обращение в минимум математиче-
ского ожидания квадрата разности

( ) {
M δ 2 = M [U(t 0 ) − L[W (t )]]2 .}
При выполнении этого условия оператор L называется оптималь-
ным и обеспечивает оптимальную экстраполяцию, интерполяцию
или сглаживание.
Способ решения поставленной задачи существенно зависит
от того, является ли интервал, на котором известна реализация, ко-
нечным или бесконечным. Для конечного интервала будем счи-
тать, что реализация задана при конечном числе дискретных зна-
чений параметра t , что наиболее часто имеет место в практике
гидрометеорологических измерений.

71
2.11. Влияние ошибок измерения
на статистические характеристики
корреляционного анализа
Пусть каждая реализация случайного процесса получена в
результате опыта с некоторой ошибкой, так что
w i (t ) = u i (t ) + v i (t ) , i − 1,2,..., N .
Тогда оценка для математического ожидания случайного процесса
согласно (2.4.2) имеет вид m w (t ) = m u (t ) + m v (t ) , т. е. математи-
ческое ожидание истинного случайного процесса завышено на ма-
тематическое ожидание случайных ошибок измерения.
Дадим оценку корреляционной функции. Согласно (2.4.3)
имеем
K w (t i , t j ) = K u (t i , t j ) + K v (t i , t j ) + K uv (t i , t j ) + K vu (t i , t j ) .
В гидрометеорологической практике обычно считают, что
ошибки измерений не коррелируют как с истинными значениями
измеряемой величины при любых значениях аргументов, так и
между собой только при различных значениях аргументов, т. е.

⎧ 0 при i ≠ j,
K uv (t i , t j ) = 0 ; ( )
K vu (t i , t j ) = 0 ; K v t i , t j = ⎨
D (t
⎩ v j ) при i = j
.

Итак, ошибки гидрометеорологических измерений завышают


оценку корреляционной функции на величину дисперсии ошибки
только при значениях t i = t j .

72
3. ЧИСЛЕННЫЙ АНАЛИЗ
ГИДРОМЕТЕОРОЛОГИЧЕСКОЙ
ИНФОРМАЦИИ

Гидрометеорологические станции и посты расположены


крайне неравномерно. Большая часть этих станций расположена на
хорошо обжитой территории. На акватории океанов, в труднодос-
тупных районах их почти нет. Кроме того, число метеорологиче-
ских станций, на которых проводятся аэрологические наблюдения,
явно недостаточно. Съемки крупно- и мезомасштабных полей
океана на больших акваториях обычно осуществляются только в
периоды проведения исследований по международным програм-
мам несколькими судами одновременно. Систематизация подоб-
ных наблюдений заключается в представлении всей полученной
информации в форме карт основных полей водного и воздушного
океанов, отражающих их состояния на большой территории. Такие
карты необходимы также для получения начальных данных о зна-
чениях гидрометеорологических величин в узлах регулярной сетки
с целью осуществления численного прогноза этих величин.
На первом этапе развития численных методов прогноза зна-
чения гидрометеорологических величин в узлах регулярной сетки
находились следующим образом. На карту с проведенными на ней
изолиниями накладывалась прозрачная палетка с нанесенными на
ней узлами сетки. Далее путем визуальной интерполяции опреде-
лялись значения гидрометеорологических величин в узлах регу-
лярной сетки. Такой способ занимает много времени и приводит к
искусственному нарушению автоматизации процесса при прохож-

73
дении информации через технические устройства. За последние
десятилетия было уделено значительное внимание автоматизации
указанного процесса. В первую очередь была решена задача полу-
чения значений гидрометеорологических величин в узлах регуляр-
ной сетки по их значениям на станциях. Эта задача получила на-
звание численного или объективного анализа.
Впервые метод численного анализа был предложен Х. А. Па-
новским в 1949 г. Метод сводился к представлению какой-либо
метеорологической величины в виде некоторого полинома. Этот
метод стал называться методом полиномиальной интерполяции.
Различные варианты этого метода были позднее предложены
Г. П. Курбаткиным, Я. М. Хейфецем, П. Н. Беловым и другими.
Другой подход к численному анализу был предложен
Л. С. Гандиным. Существенным моментом этого метода, который
получил название метода оптимальной интерполяции, было ис-
пользование статистической структуры метеорологических полей.
Различные реализации этого метода были осуществлены С. Л. Бе-
лоусовым и другими. Позднее этот метод стал активно использо-
ваться для восстановления полей океана в узлах расчетной сетки
(работы В. И. Беляева, И. Е. Тимченко и др.).
Следует отметить, что с точки зрения требований, предъяв-
ляемых к оператору L, оба метода: метод полиномиальной интер-
поляции и метод оптимальной интерполяции являются оптималь-
ными с той лишь разницей, что первый из них не учитывает веро-
ятностную структуру случайных полей. Однако, следуя устано-
вившейся традиции, будем использовать предложенную термино-
логию.
В дальнейшем распространение получили различные методы
анализа, основанные на комбинировании линейной интерполяции
и статистической структуры гидрометеорологических полей. Это –
метод последовательных приближений (метод коррекции), метод
сплайн-полиномов.

74
В настоящее время сплайны успешно применяют при реше-
нии широкого круга гидрометеорологических задач, требующих
аппроксимации одномерных или многомерных полей сложной
структуры, заданных своими значениями в отдельных точках, и,
возможно, последующего интегрирования (осреднения) аппрокси-
манта по заданным областям с целью получения обобщенных про-
странственных характеристик этих полей. Последняя задача часто
усложняется нерегулярным расположением точек, в которых из-
вестны значения поля, неправильной формой области и т. д.
Развитие новых средств наблюдений, таких как спутниковые
системы, трансозондовые и др. привело к тому, что гидрометеоро-
логические наблюдения стали несинхронными. Это обстоятельст-
во потребовало разработки нового подхода к проблеме численного
анализа и привело к созданию четырехмерного численного анали-
за, который правильнее было бы назвать пространственно-
временным численным анализом.
Рассмотрим подробнее некоторые из наиболее употребитель-
ных методов численного анализа.

3.1. Метод полиномиальной интерполяции


Метод основан на описании участка поля какой-либо гидро-
метеорологической величины в окрестности точки регулярной сет-
ки полиномом (многочленом). Эти полиномы могут быть алгеб-
раическими различного порядка, тригонометрическими, сфериче-
скими и т. д. и могут иметь разные порядки. Например, в случае
плоскости (один уровень) алгебраические полиномы первого, вто-
рого и третьего порядка имеют соответственно вид:
X1 (x , y ) = a 0 + a1x + a 2 y ,

X 2 (x , y ) = X1 (x , y ) + a 3 xy + a 4 x 2 + a 5 y 2 ,

X 3 (x , y ) = X 2 (x , y ) + a 6 x 2 y + a 7 xy 2 + a 8 x 3 + a 9 y 3 ,

75
где x , y – координаты, a i (i = 1, 2, …, 9) – коэффициенты. Ука-
занные полиномы можно записать в более компактном виде:
i + j≤ 3
X (x , y ) = ∑ a ijx i y j .
i , j= 0

Основы метода рассмотрим на примере поля геопотенциала


одного уровня при использовании полинома первого порядка:
H (x , y ) = a 0 + a 1 x + a 2 y (3.1.1)
Определяем коэффициенты a 0 , a1 , a 2 методом наименьших
квадратов по значениям Hi в нескольких пунктах (станциях), рас-
положенных в окрестности узла (влияющие точки).
n 2 n 2
Ф(x, y) = ∑[H(xi , yi ) − Hi ] = ∑[a 0 + a1xi + a 2 yi − Hi ] = min. (3.1.2)
i −1 i −1

Число пунктов n может быть невелико, однако в любом


случае оно должно быть равно или превышать число членов взято-
го полинома.
Дифференцируя последнее выражение последовательно по
a 0 , a 1 , a 2 , имеем систему алгебраических уравнений:

⎧ ∂Ф(x , y ) n
⎪ ∂a = 2 ∑ [a 0 + a1x i + a 2 y i − H i ] = 0,
⎪ 0 i =1
⎪ ∂Ф(x , y ) n
⎨ = 2∑ [a 0 + a1x i + a 2 y i − H i ]x i = 0,
⎪ ∂a 1 i =1
⎪ ∂Ф(x , y ) n
⎪ ∂a = 2∑ [a o + a1x i + a 2 y i − H i ]y i = 0.
⎩ 2 i =1

Или после тождественных преобразований имеем:


⎧ n n n
⎪ na 0 + a1 ∑ x i + a 2 ∑ y i = ∑ H i ,
⎪ n i =1
n
i =1
n
i =1
n

⎨ 0∑ i 1∑ i 2∑ i i ∑ Hi x i ,
2
a x + a x + a x y =
⎪ i =1 i = 1 i = 1 i =1
n n n n

⎪ 0∑ i 1∑ i i 2∑ i ∑ H i yi .
2
a y + a x y + a y =
⎩ i =1 i =1 i =1 i =1

76
Решив полученную систему уравнений, найдем искомые ко-
эффициенты a 0 , a1 , a 2 в (3.1.1). Если мы поместим начало коорди-
нат в рассматриваемый узел сетки или интересуемую точку, то
x = y = 0 и H(0,0 ) = a 0 . Это значение можно принять в качестве
искомого значения геопотенциала в узле или точке сетки. Проде-
лав такую операцию для всех точек регулярной сетки или интере-
сующих каких-то точек (влияющие станции для каждой точки бу-
дут разными), мы получим в них значения геопотенциала, которые
далее можно использовать для численного прогноза либо автома-
тического расчерчивания диагностических полей.
Изложенная схема интерполяции дает хорошие результаты в
случае одинаковой достоверности данных во всех учитываемых
пунктах. Реальная же гидрометеорологическая информация имеет
различную достоверность в разных пунктах, что может быть свя-
зано с использованием приборов различных конструкций, ошиб-
ками измерений, различными расстояниями станций влияния и пр.
В этом случае интерполяция по приведенной схеме может дать не-
удовлетворительные результаты. Поэтому необходимо будет учи-
тывать различия в достоверности данных путем введения в систе-
му (3.1.2) дополнительных весов pi :
n 2 n 2
Ф(x , y ) = ∑ p i [H(x i , y i ) − H i ] = ∑ p i [a 0 + a1x i + a 2 y i − H i ] = min .
i −1 i −1

Существенно заметить, что какой-либо универсальной мето-


дики для выбора весов не существует, поэтому подбор их осуще-
ствляется, как правило, на основе эмпирических данных и числен-
ных экспериментов (например, пропорционально средней квадра-
тической ошибке данных, пропорционально расстоянию влияю-
щих станций и пр.).
Надо отметить, что аналогичным образом может быть полу-
чена система для других видов интерполяционных полиномов.
Как частный случай полиномиальную интерполяцию можно
использовать для определения некоторых гидрометеорологических

77
характеристик методом аналогий, когда данные наблюдений по
интересующему нас объекту отсутствуют.
Например, необходимо определить норму стока реки В, для
которой в качестве аналога взята река А. Для реки А имеются ре-
гулярные многолетние наблюдения, на основе которых найдена
норма стока q A = 2,1 л/(с км2). Для реки В проведены только за
шесть лет наблюдения, параллельные с наблюдениями за рекой А.
Результаты этих наблюдений отражены в таблице.
Таблица
Модуль стока q л/(с км2) рек А и В
Реки 1989 г. 1990 г. 1991 г. 1992 г. 1993 г. 1994 г.
А 1,10 1,18 2,09 1,65 2,58 0,78
В 1,38 0,99 2,28 2,08 3,30 0,65

Пусть график связи между значениями модулей стока рек А


и В наводит на мысль о их линейной зависимости, т. е.

q B = a 0 + a1q A (3.1.3)

qB, л/(с км2)


4

0
-2 -1 0 1 2 3 qA, л/(с км2)

-1

-2

Рис. 2. Связь годового стока рек А и В

78
Коэффициенты a 0 и a1 определяем методом наименьших
квадратов из условий требования наилучшей линейной связи так,
чтобы
2
∑ (a 0 + a1q A i − q Bi ) = min .
6

i =1
После частного дифференцирования последнего выражения
система нормальных уравнений принимает вид:

⎧ 6 6
⎪⎪ na 0 + a1 ∑ q A i = ∑ q B i ,
i =1 i =1 . (3.1.4)
⎨ 6
( ) ( )
6 6
⎪a 0 ∑ q A + a1 ∑ q A = ∑ q A q B
2
⎪⎩ i = i i i =1
i
i =1
i i

Используя данные таблицы, находим:


2
∑ (q A )
6 6 6
∑qA i
= 9,38; ∑qB i
= 10,68; i
= 16,96;
i =1 i =1 i =1

∑ (q A q B ) = 19,90.
6
i i
i =1

Подставив найденные значения в (3.1.4), получим систему


уравнений:

⎧ 6a 0 + 9,38a1 = 10,68,
⎨ ,
⎩9,38a 0 + 16,96a 1 = 19,90

которая имеет следующее решение: a 0 = −0,41; a1 = 1,40. Тогда


уравнение (3.1.3) примет вид:
q B = −0,41 + 1,4q A ,

откуда q B = −0,41 + 1,4q A = −0,41 + 1,40 × 2,1 = 2,53 л/(с км2).

79
3.2. Метод оптимальной интерполяции
Рассмотрим метод линейной оптимальной интерполяции
случайной функции W(t), заданной дискретно для t 1 , t 2 ,..., t n на
конечном интервале, причем t1 < t 2 < ... < t n . Считая, что эти зна-
чения являются результатами измерений и содержат ошибки,
можно записать
W (t i ) = U (t i ) + V (t i ) , i = 1,2 = ..., n, (3.2.1)

где U(t i ) – истинное значение реализации в момент t i , а V(t i ) –


ошибка измерения.
Случайные процессы U(t) и V(t) будем считать стационар-
ными и стационарно связными, а их характеристики – математиче-
ское ожидание, корреляционные функции и корреляционные
функции связи – известными. Без нарушения общности выводов
будем считать, что математическое ожидание равно нулю, т. е. мы
рассматриваем соответствующие центрированные случайные
функции. В противном случае (если математическое ожидание не
равно нулю), нам необходимо случайные функции центрировать.
Искомое значение U(t 0 ) , являющееся результатом примене-
ния линейного оператора L ко всем значениям W (t i ) , можно за-
писать в виде линейной комбинации
n
U (t 0 ) = ∑ a i W (t i ) , (3.2.2)
i =1
где a i – постоянные коэффициенты, которые надо определить.
Задача сводится, таким образом, к отысканию таких значе-
ний коэффициентов α1 , α 2 ,..., α n , при которых величина
⎧⎪⎡ ⎤ ⎫⎪
2
( )
n
M δ = (a1 , a 2 ,..., a n ) = M ⎨⎢ U(t 0 ) − ∑ a i W (t i )⎥ ⎬
2
σ 2n (3.2.3)
⎪⎩⎣ i =1 ⎦ ⎪⎭
обращается в минимум.

80
Заметим, что в настоящее время практически приемлемое
решение поставленной задачи получено при предположениях о
линейности и стационарности оператора L, а также и стационар-
ной связности случайных процессов U(t) и V(t).
Известно, что необходимым условием минимума функции n
переменных является равенство нулю всех ее частных производ-
ных по каждой переменной, т. е. a1 , a 2 ,..., a n должны быть реше-
ниями системы уравнений:

∂σ 2n (a1,a 2,...,a n )
= 0, i = 1,2,...,n.
∂a i

Преобразуем выражение (3.2.3).

⎧⎪ n ⎡n ⎤ ⎫⎪
2
σ 2n (a1 , a 2 ,..., a n ) = M ⎨U (t 0 ) − 2 U(t 0 )∑ a i W(t i ) + ⎢ ∑ a i W(t i )⎥ ⎬ .
2

⎪⎩ i =1 ⎣i =1 ⎦ ⎪⎭
В последнее выражение подставим (3.2.1)

⎧⎪ 2 n
⎡n ⎤ ⎫⎪
2
σ2n (a1,a2,...,an ) = M⎨U (t 0 ) − 2U(t 0 )∑ai [U(ti ) + V(ti )] +⎢∑ai [U(ti ) + V(ti )]⎥ ⎬.
⎪⎩ i =1 ⎣i =1 ⎦ ⎪⎭

Воспользовавшись свойствами математического ожидания,


преобразуем полученное выражение, особо обратив внимание на
правильность операции возведения в степень последнего слагае-
мого.

[ ]
n
σ 2n (a1 , a 2 ,..., a n ) = M U 2 (t 0 ) − 2 ∑ a i {M[U (t 0 )U (t i )] + M[U (t 0 )V(t i )]}+
i =1

+ ∑ ∑ a i a j {M [U (t i )U (t j )] + M [U (t i )V (t j )] + M [V (t i )U (t j )] + M [V (t i )V (t j )]}=
n n

i =1 j =1

81
n
= K u (0 ) − 2 ∑ a i [K u (t 0 − t i ) + K uv (t 0 − t i )] +
i =1

[ ]
n n
+ ∑∑ a ia j K u (t j − t i ) + K uv (t j − t i ) + K vu (t j − t i ) + K v (t j − t i ) . (3.2.4)
i =1 j=1

Продифференцируем по всем a i :
∂σ 2n (a1 , a 2 ,..., a n )
= −2[K u (t 0 − t i ) + K uv (t 0 − t i )] +
∂a i

[ ]
+ ∑ a j K u (t j − t i ) + K uv (t j − t i ) + K vu (t j − t i ) + K v (t j − t i ) , i = 1, 2, …, n.
n

j=1

Воспользовавшись необходимым условием минимума функ-


ции n переменных, приравняем производные нулю. Получим

[ ]
Ku (t 0 − ti ) + Kuv(t0 − ti ) = ∑a j Ku (t j − ti ) + Kuv(t j − ti ) + Kvu(t j − ti ) + Kv (t j − ti ) . (3.2.5)
n

j=1

Решив полученную систему линейных алгебраических урав-


нений относительно a 1 , a 2 ,..., a n , можно убедиться непосредст-
венно, что выполнено и достаточное условие, т. е. выражение
(3.2.3) обращается в минимум (вспомним одно из правил, извест-
ных из математического анализа, например, смена знака первой
производной в окрестности искомой точки).
Коэффициенты a 1 , a 2 ,..., a n называют интерполяционными
«весами», с которыми учитываются значения W (t i ) в сумме
(3.2.2), причем
n
∑ a i = 1.
i =1

Заметим, что на практике последнее равенство выполняется


приближенно из-за ошибок округления, неизбежно возникающих
при расчетах.

82
Как нам уже известно, с принципиальной точки зрения вывод
формул для оптимальной экстраполяции и оптимального сглажива-
ния не отличается от вывода формулы оптимальной интерполяции.
Рассмотрим частные случаи (3.2.5).
1. Ошибки измерения отсутствуют, т. е. имеем случай чистой
интерполяции или экстраполяции. В этом случае в формуле
(3.2.1) V(t i ) = 0 , а W (t i ) = U(t i ) . Следовательно, K v (τ ) = 0 ,
K uv (τ ) = 0, K vu (τ ) = 0 . Тогда формула (3.2.5) принимает вид:

K u (t 0 − t i ) = ∑ a jK u (t j − t i )
n
i = 1, 2, …, n . (3.2.6)
j=1

Так как корреляционная функция положительно определена,


то определитель линейной системы (3.2.6) отличен от нуля и, сле-
довательно, система имеет единственное решение. При этом коэф-
фициенты a 1 , a 2 ,..., a n зависят от степени связанности сечений
U(t i ) как между собой, так и с аппроксимируемым сечением
U (t 0 ) .
Если сечения U(t i ) не связаны между собой, но связаны с
аппроксимируемым U(t 0 ) , то все K u (t j − t i ) = 0 при i ≠ j . По-
этому имеем:
K u (t 0 − t i ) = a i K u (0 )
или

K u (t 0 − t i )
a1 = = R u (t 0 − t i ) ,
K u (0)

т. е. коэффициенты a i определяются через коэффициенты корре-


ляции между сечениями случайной функции U (t 0 ) и U (t i ) ,
i = 1, 2, …, n.
Если сечение U(t 0 ) практически не связано с сечениями
U(t i ) , что будет иметь место при экстраполяции, когда величина

83
упреждения Т будет выбрана очень большой, то в равенстве
(3.2.6) K u (t 0 − t i ) = 0 и

∑ a jK u (t j − t i ) = 0 ,
n
i = 1, 2, …, n.
j=1

Определитель этой системы алгебраических уравнений не


равен нулю (корреляционная функция положительно определена),
а потому выполнение последнего равенства возможно только то-
гда, когда все коэффициенты a1 = a 2 = ... = a n = 0 . Согласно равен-
ству (3.2.2) в этом случае метод оптимальной экстраполяции дает
аппроксимируемое значение, равное математическому ожиданию
случайной функции.
2. Ошибки измерений существуют, но они не коррелируют
между собой в различных сечениях и не коррелируют с истинными
значениями случайной функции, т. е.

K v (τ ) = 0 при τ = 0 и K uv (τ ) = 0, K vu (τ ) = 0. (3.2.7)

Тогда формула (3.2.5) принимает вид:

[
K u (t 0 − t i ) = ∑ a j K u (t j − t i ) + K v (t j − t i ) . ]
n

j =1

Так как K v (t j − t i ) ≠ 0 только при j = i , то

K u (t 0 − t i ) = ∑ a jK u (t j − t i ) + a i K v (0) ,
n
(3.2.8)
j =1

где i=1,2,…, n.
Оценим ошибку оптимальной интерполяции со сглаживани-
ем. В нашем случае равенство (3.2.4) с учетом (3.2.7) принимает
вид:
n n n n
σ2n (a1, a 2 ,...,a n ) = Ku (0) − 2∑ai Ku (t 0 − t i ) + ∑∑aia jKu (t j − t i ) + ∑ai2Kv (0) . (3.2.9)
i =1 i =1 j=1 i =1

84
Умножив каждое из n равенств (3.2.8) на соответствующее
a i и сложив результаты, получим:

∑ a i K u (t 0 − t i ) = ∑ ∑ a i a jK u (t j − t i ) + K v (0)∑ a i2 .
n n n n

i =1 i =1 j =1 i =1

Подставим полученное выражение в (3.2.9).

σ2n (a1 , a 2 ,..., a n ) = K u (0) − ∑ a i K u (t 0 − t i ) + ∑∑ a i a jK u (t j − t i ) −


n n n

i=1 i=1 j=1

− K v (0 )∑ a i2 + ∑ ∑ a i a jK u (t j − t i ) + ∑ a i2 K v (0 ) .
n n n n

i =1 i =1 j =1 i =1

Приводя подобные члены, имеем:

n
σ2n (a1, a 2 ,..., a n ) = K u (0) − ∑ a i K u (t 0 − t i ).
i =1

В этом выражении последняя сумма неотрицательна (корре-


ляционная функция положительно определена) и K u (0 ) = D u = D .
Поэтому ошибка оптимальной интерполяции (экстраполяции) не
превосходит дисперсии случайной функции:

σ 2n
σ 2n (a1 , a 2 ,..., a n ) ≤ D , или = δ ≤ 1,
D
т. е. относительная ошибка не превосходит единицы. Окончатель-
но имеем:

n
δ = 1 − ∑ a i R u (t 0 − t i ) , (3.2.10)
i =1

K (t − t ) σ2n
где R u (t 0 − t i ) = u 0 i , = δ.
D D

85
Вернемся к равенству (3.2.8), обе части которого разделим на
дисперсию случайной функции (напомним, что в силу стацио-
нарности дисперсия для всех сечений случайного процесса по-
стоянна).
K u (t 0 − t i ) n K u (t j − t i ) K v (0)
= ∑a j + , i = 1, 2, …, n. (3.2.11)
D j=1 D D
где K v (0) – дисперсия ошибки, D – дисперсия истинной реали-
K v (0)
зации, – относительная ошибка измерения.
D
Через нормированные корреляционные функции равенство
(3.2.11) запишется:

R u (t 0 − t i ) = ∑ a jR u (t j − t i ) + a i δ ,
n
i = 1, 2, …, n.
j =1

Для краткости дальнейших записей обозначим:

R u (t 0 − t i ) = R 0 i , Ru (t j − t i ) = R ij .
Итак, окончательно система уравнений оптимальной интер-
поляции (экстраполяции) со сглаживанием имеет вид:

n
R 0i = ∑ a jR ij + a i δ , i = 1, 2, …, n.
j=1

Запишем эту систему в развернутом виде.

⎧a1 (R11 + δ ) + a 2 R12 + a 3R13 + ... + a n R1n = R 01 ,


⎪ aR + a 2 (R 22 + δ ) + a 3R 23 + ... + a n R 2n = R 02 ,
⎪⎪ 1 21
⎨ a1R 31 + a 2 R 32 + a 3 (R 33 + δ ) + ... + a n R 3n = R 03 ,
⎪ ... ... ... ... ... ...

⎪⎩ a1R n1 + a 2R n2 + a 3R n 3 + ... + a n (R nn + δ ) = R 0 n .

86
Систему линейных алгебраических уравнений можно пере-
писать и для случая измерений без ошибок, когда δ = 0 .
Найденные значения a i (i = 1, 2, …, n) подставим в форму-
лу (3.2.2), записанную для центрированных величин (напомним,
что, не нарушая общности рассуждений, мы положили математи-
ческое ожидание равным нулю). Переходя к нецентрированным
величинам, получим истинное значение случайной функции при
заданном значении аргумента.
Очевидно, что методика, изложенная применительно к ста-
ционарным процессам одной переменной t, полностью применима
и для пространственной интерполяции (экстраполяции) изотроп-
ных и однородных полей. Соответствующие формулы легко полу-
чаются заменой скалярного аргумента t векторным аргументом
λ.
Метод оптимальной интерполяции, основанный на вероятно-
стной модели согласования гидрометеорологических наблюдений,
как показал опыт, обеспечивает по сравнению с другими методами
картирования максимальную точность восстановления полей в уз-
лах регулярной сетки.
В случае расчета карты одного крупномасштабного поля (по
измерениям этого же поля) для оптимальной интерполяции, как
мы уже убедились, необходима предварительная оценка корреля-
ционной функции поля. Эта функция служит естественной харак-
теристикой его пространственной изменчивости. Однако при прак-
тической оценке корреляционной функции приходится наклады-
вать статистические ограничения на изменчивость поля, вводя
предположения об однородности и изотропности его по отноше-
нию к корреляционной функции и о постоянстве его среднего зна-
чения. В этом случае корреляционная функция зависит не от коор-
динат точек, а только от скалярного расстояния между этими точ-
ками.
При океанографических съемках (в виду их высокой стоимо-
сти) целесообразно выполнять комплексные измерения многих

87
компонентов полей океана на каждой станции. Большинство из
измеряемых полей оказываются связанными между собой уравне-
ниями динамики океана, которые отражают реально существую-
щие в океане физические связи между параметрами состояния
водных масс. Физические связи между полями создают сущест-
венные ограничения на их пространственную изменчивость, кото-
рые отражаются на форме взаимных корреляционных функций
этих полей. Картирование крупномасштабной изменчивости океа-
на является задачей комплексного использования всей доступной
информации о каждом поле, содержащейся в измерениях различ-
ных полей. Так, в работе Неуймин Г. Г. и др. (см. список дополни-
тельной литературы) методом оптимальной интерполяции в узлах
регулярной сетки с шагом 2 o построены карты оптических харак-
теристик вод тропической зоны Атлантического океана по данным
ряда экспедиций судов Морского гидрофизического института.
Дальнейшая проверка полученных расчетов хорошо подтвердила
тот факт, что показатель ослабления оптических свойств в основ-
ном определяется содержанием планктона и продуктов его жизне-
деятельности: в районах с повышенным содержанием биогенов ве-
личина показателя ослабления увеличивается, а в зонах конверген-
ции показатель ослабления уменьшается; в прибрежных водах
прозрачность понижается не только за счет высокой продуктивно-
сти, но и за счет содержания терригенных веществ.
В метеорологии для крупномасштабной структуры, характе-
ризующейся горизонтальными расстояниями порядка сотен кило-
метров, можно говорить об однородности и изотропности только в
горизонтальном направлении или вдоль изобарической поверхно-
сти. С этой точки зрения при анализе крупномасштабной структу-
ры целесообразно рассматривать значения какой-либо одной ме-
теорологической величины на двух уровнях (или на двух изобари-
ческих поверхностях) как бы в качестве двух различных метеоро-
логических переменных.

88
Свойства изотропности и однородности выполняются при-
ближенно, и при расстояниях, сравнимых с радиусом Земли, они,
по-видимому, нарушаются. Практически, как показывают мно-
гочисленные расчеты, корреляционные функции высот изобари-
ческих поверхностей можно считать функциями только расстоя-
ния до тех пор, пока это расстояние не превышает примерно
3 000 км.
Хотя гипотезы однородности и изотропности не являются
столь уж принципиальными для ряда применений корреляционных
функций, в том числе и для оптимальной интерполяции, однако
принятие этих гипотез позволяет значительно облегчить использо-
вание корреляционных функций. Определение макромасштабных
корреляционных функций производится путем обработки массово-
го материала обычных аэрологических наблюдений. При выборе
исходного материала необходимо соблюдать ряд требований, на-
правленных на обеспечение однородности и репрезентативности
данных: данные следует брать в пределах одного сезона или его
части; не следует использовать данные за соседние сроки наблю-
дений из-за их связности (достаточно брать данные, отстоящие
друг от друга на двое-трое суток); в качестве норм следует прини-
мать средние значения по тому же материалу, который использу-
ется для определения корреляционных функций (то же относится и
к дисперсиям).
С помощью статистического анализа были исследованы кор-
реляционные крупномасштабные функции различных метеороло-
гических величин. Эти корреляционные функции в метеорологи-
ческих рекомендациях для различных метеовеличин даны или в
форме таблиц, или аналитических зависимостей. Так, например,
для высоты поверхности 500 гПа (АТ 500 ) нормированная корреля-
ционная функция аппроксимируется выражением

R (r ) = (1 + 0,98r ) exp(− 0,98r ) – формула М. И. Юдина,

89
sin (1,51r )
R (r ) = exp(− 0,25r ) – формула Т. И. Олевской.
1,51r

Пространственная корреляционная функция скорости


ветра на поверхности 500 гПа:
r
R (r ) = 1 − при r ≤ 1,5 ;
1,4
временная нормированная корреляционная функция приземного
давления имеет вид:

⎛ t ⎞ ⎛ t ⎞
R (t ) = ⎜1 + ⎟ exp⎜ − ⎟ .
⎝ 30 ⎠ ⎝ 30 ⎠
Здесь r – расстояние в тысячах километров, t – время в ча-
сах.
Следует заметить, что приведенные формулы надо рассмат-
ривать как рабочие.

Пример.
На метеорологических станциях в какой-то стандартный срок
проведены наблюдения за полем высот изобарической поверхно-
сти 500 гПа. Относительная ошибка измерения δ = 0,02. Эти изме-
рения представлены в виде отклонений от соответствующих зна-
чений стандартной атмосферы. Используя для каждой точки регу-
лярной сетки данные наблюдений по четырем ближайшим метео-
станциям, рассчитать методом оптимальной интерполяции высоту
данной изобарической поверхности в каждом узле регулярной сет-
ки, если в качестве нормы принята средняя арифметическая (100
гп.м), рассчитанная по всему полю. Нормированную корреляцион-
ную функцию аппроксимировать формулой М. И. Юдина. Реше-
ние поставленной задачи продемонстрируем для одного из узлов
регулярной сетки, в окрестности которого находятся метеорологи-
ческие станции, имеющие следующие значения высот для рас-

90
сматриваемой изобарической поверхности: первая станция –
H1=150 гп.м, вторая – H2=150 гп.м, третья – H3=187 гп.м, четвертая –
H4=187 гп.м. Истинное значение высоты изобарической поверхно-
сти в данном узле обозначим через H0. Расположение станций дано
на схеме. Расстояние между точками

2 (0)-(1) составляет 600 км,


(0)-(2) ………….. 600 км,
(0)-(3) ………….. 300 км,
1 0 3
(0)-(4) ………….. 300 км.

Решение:
Так как норма отлична от нуля, то формула оптимальной ин-
терполяции (3.2.2) будет в данных обозначениях иметь вид:

H 0 − H = ∑ a j (H j − H ) , где H – норма.
4

j=1

Для расчета коэффициентов a j нам надо решить следую-


щую систему линейных алгебраических уравнений:

⎧a1 (R11 + δ ) + a 2 R12 + a 3R13 + a 4 R14 = R 01 ,


⎪a R + a 2 (R 22 + δ ) + a 3R 23 + a 4 R 24 = R 02 ,
⎪ 1 21

⎪a1R 31 + a 2 R 32 + a 3 (R 33 + δ ) + a 4 R 34 = R 03 ,
⎪⎩a1R 41 + a 2 R 42 + a 3R 43 + a 4 (R 44 + δ ) = R 04 .
Для расчета нормированных корреляционных функций, зави-
сящих только от расстояния, предварительно найдем расстояния
между пунктами в тыс. км:
r11 = r22 = r33 = r44 = 0 ;
r13 = r31 = r24 = r42 = 0,900 ;
r23 = r32 = r14 = r41 = 0,671 ;

91
r01 = r02 = 0,600 ;
r12 = r21 = 0,848 ;
r34 = r43 = 0,424 ;
r03 = r04 = 0,300 .
Здесь индексы означают номера соответствующих пунктов.
Найдем нормированные корреляционные функции по формуле
М. И. Юдина, подставляя в нее соответствующие найденные рас-
стояния. В результате получим:

R 11 = R 22 = R 33 = R 44 = 1;
R 13 = R 31 = R 24 = R 42 = 0,779;
R 23 = R 32 = R 14 = R 41 = 0,859;
R 01 = R 02 = 0,882;
R 12 = R 21 = 0,797;
R 34 = R 43 = 0,934;
R 03 = R 04 = 0,964;

Система линейных алгебраических уравнений примет вид:

⎧1,020a1 + 0,797a 2 + 0,779a 3 + 0,859a 4 = 0,882,


⎪0,797a + 1,020a + 0,859a + 0,779a = 0882,
⎪ 1 2 3 4

⎪0,779a1 + 0,859a 2 + 1,020a 3 + 0,934a 4 = 0,964,
⎪⎩0,859a1 + 0,779a 2 + 0,934a 3 + 1,020a 4 = 0,964.

Решая полученную систему, например методом Гаусса, най-


дем
a1 = a 2 = 0,166; a 3 = a 4 = 0,354 .
Тогда
H 0 − H = a1 (H1 − H ) + a 21 (H 2 − H ) + a 3 (H 3 − H ) + a 4 (H 41 − H ).

92
Или
Н0 = 100+0,166(150-100)+0,166(150-100)+0,354(187-100)+
+ 0,354(187-100) = 178,196 (гп.м).

Оценим ошибку интерполяции, использовав формулу


(3.2.10),

4
δ = 1 − ∑ a i R 0i = 1 − 2(0.166 × 0,882 + 0,354 × 0,964) = 0,025 .
i =1

3.3. Четырехмерный численный анализ


Мы рассмотрели методы объективного анализа (в частности,
полиномиальную и оптимальную интерполяции) гидрометеороло-
гических полей на плоскости и в пространстве по данным син-
хронных наблюдений, т. е. наблюдений, проводимых в единый
момент времени (синоптические наблюдения), который соответст-
вует различному местному времени в разных пунктах земного ша-
ра. Между тем для новейших наблюдательных гидрометеорологи-
ческих систем (например, спутниковых) характерны асиноптиче-
ские, т. е. несинхронные наблюдения.
Для усвоения спутниковых наблюдений, а также несинхрон-
ных экспедиционных данных в процессе численного анализа необ-
ходимо, чтобы анализ допускал возможность использования дан-
ных, относящихся не только к различным точкам пространства, но
и к различным моментам времени, иначе говоря, перейти к про-
странственно-временному анализу гидрометеорологических полей.
Такой пространственно-временной анализ, как мы уже говорили,
называется четырехмерным анализом гидрометеорологических
полей или четырехмерным усвоением (ассимиляцией) гидрометео-
рологической информации.
Существует две принципиально различные схемы четырех-
мерного анализа: 1. Дискретная, предусматривающая построение

93
диагностических полей лишь для синоптических сроков наблюде-
ний. В этом отношении она не отличается от существующих мето-
дик объективного анализа. Различие же состоит в том, что при по-
строении каждого диагностического поля, наряду с данными на-
блюдений, относящихся к рассматриваемому сроку, используется
также асиноптическая информация, относящаяся к другим, более
ранним моментам времени. 2. Наиболее логичной является другая
непрерывная схема четырехмерного анализа, в рамках которой ка-
ждое наблюдаемое значение (синоптическое или асиноптическое)
усваивается соответственно тому времени, к которому это наблю-
дение относится. Это усвоение заключается в изменении результа-
тов численного прогноза для момента времени, соответствующего
поступившему наблюдению. Иначе говоря, каждый результат на-
блюдения вводится в численную прогностическую модель, кото-
рая действует непрерывно.
Рассмотрим, например, один из подходов решения задачи че-
тырехмерного анализа – полиномиальный. Метод полиномиаль-
ной интерполяции обобщается следующим образом. При пред-
ставлении поля скалярного аргумента, например температуры,
геопотенциала, давления и пр., в виде какого-либо полинома время
t рассматривается в качестве одной из независимых переменных.
Так, при использовании полинома второго порядка на плоскости
принимается, что

Φ(x i , yi , t s ) = Φ is = a 0 + a1x i + a 2 yi + a 3x i yi + a 4 x i2 + a 5yi2 +


+ a 6 t s + a 7 x i t s + a 8 yi t s + a 9 t s2 .

Коэффициенты a j ( j = 0,1,2,...,9 ), как и ранее, находятся из


условия минимума:

2
∑∑[Φis − ( )] pis ,
n m
a 0 + a1x i + a 2 yi + a 3x i yi + a 4 x i2 + a 5yi2 + a 6 t s + a 7 x i ts + a8yi t s + a 9 t s2
i =1 s =1

94
где индекс i показывает положение точки на плоскости, а индекс s –
момент времени, т. е. суммирование распространяется на все точки
на плоскости и на все моменты времени. Значение весовой функ-
ции pis может быть выбрано из каких-либо дополнительных сооб-
ражений (в простейшем случае pis = 1 ). Далее, согласно методу
наименьших квадратов, составляется нормальная система уравне-
ний для определения коэффициентов a j (j = 0, 1, 2, …, 9).
Аналогично можно рассматривать и метод оптимальной ин-
терполяции.

3.4. Метод контроля исходной информации


Наряду с небольшими ошибками в данных наблюдений, ко-
торые неизбежны и можно считать случайными, встречаются так-
же и значительные (грубые) по величине ошибки, причины появ-
ления которых могут быть вызваны неисправностью аппаратуры,
просчетами при первичной обработке данных на станциях, иска-
жениями при кодировании во время передачи или приема данных.
Такие ошибки необходимо уметь выявлять, исправлять или отбра-
сывать. Все эти действия, естественно, должны выполняться авто-
матически по некоторому алгоритму контроля данных. Практика
показала, что ни один из методов контроля не является универ-
сальным для полного исправления или отбраковки грубо ошибоч-
ных данных. Однако наилучшие результаты достигаются в том
случае, если различные методы контроля взаимосвязаны.
Применяемые в настоящее время методы контроля можно
условно разбить на три группы: 1) вертикальный контроль; 2) го-
ризонтальный контроль; 3) контроль при согласовании. Каждая из
названных групп, в свою очередь, подразделяется на подгруппы, в
основе разделения которых заложены различные методы. Так, на-

95
пример, в различных схемах численного анализа и прогнозах гид-
рометеорологических полей, используемых в нашей стране, при-
меняется один из следующих трех методов вертикального контро-
ля: статистический контроль производных по высоте, разработан-
ный С. Л. Белоусовым; статистический контроль при использова-
нии автокорреляционных матриц, предложенный М. Ю. Юдиным;
статический (гидростатический) контроль высот изобарических
поверхностей и температуры.
Рассмотрим для примера наиболее часто встречающийся ста-
тический контроль высот изобарических поверхностей и темпера-
туры. Этот контроль заключается в проверке выполнимости урав-
нения статики для политропной среды в слоях между каждыми со-
седними главными изобарическими поверхностями.
Уравнение статики атмосферы и гидросферы имеет вид:
dp
= − gρ ,
dz
где p – давление, g – ускорение свободного падения, ρ – плот-
ность, ось z направлена вертикально вверх.
Заменим высоту z геопотенциальной высотой Н. Известно,
что геопотенциальная высота Н представляет собой отношение
геопотенциала G к нормальному (стандартному) ускорению сво-
бодного падения g 0 :

G 1 z g
H= = ∫ gdz ≈ z, (g0 = 9,8 м/с2).
g0 g0 0 g0

На практике часто бывает наиболее удобно представлять


геопотенциальную высоту Н следующим образом:
g g
H= z = z.
10g 0 98
Полученная рабочая формула дает размерность геопотен-
циальной высоты Н в гп. дам (геопотенциальный декаметр).

96
Из последнего выражения найдем z = 98 H/g и подставим его
в уравнение гидростатики, предварительно записав его в виде:
dz 1 98dH 1 98dH 1
=− ; =− ; или = .
dp ρg gdp ρg dp ρ

В последнем дифференциальном уравнении разделим пере-


менные, предварительно выразив плотность ρ из уравнения со-
стояния идеального газа p = ρRT :
RT dp
dH = − ,
98 p
где Т – температура по шкале Кельвина, R – универсальная газо-
вая постоянная.
Проинтегрируем это уравнение в слое между главными изо-
барическими поверхностями pi и p i +1 :
H i +1 p i +1
RT dp
∫ dH = − ∫ 98 p
, или
Hi pi

R
H i +1 − H i = − (ln pi +1 − ln pi )Tm = R ln pi Tm , (3.4.1)
98 98 pi +1

где Tm – средняя абсолютная температура слоя. Заменяя ее при-


ближенно полусуммой температур Ti и Ti +1 на границах слоя и
переходя к температуре t 0 C , получим:

R p (t + 273) + (t i +1 + 273)
H i +1 − H i = ln i i =
98 pi +1 2

273R p R p
= ln i + ln i (t i + t i +1 ) .
98 pi +1 196 pi +1

97
Обозначим в последнем равенстве первое слагаемое в правой
части через Ai , а выражение перед скобкой во втором слагаемом –
через Bi . Тогда
H i +1 − H i = A i + Bi (t i + t i +1 ) .

Невязкой статического контроля называется разность между


левой и правой частями последнего уравнения:

δi = H i +1 − H i − A i − Bi (t i + t i +1 ) .
Эта невязка может быть обусловлена отклонением профиля
температуры от линейного относительно ln p, а также случайны-
ми ошибками измерения и округления. Максимальное по модулю
значение δi , обусловленное указанными причинами, обозначим
Δ i . Если Δ i превышает допустимое значение, то весьма вероятна
грубая ошибка, по крайней мере, в одной из четырех величин:
H i , H i +1 , t i , t i +1 . Анализ соотношений в различных слоях часто по-
зволяет выяснить, какая из величин ошибочна, оценить величину
этой ошибки и внести соответствующие исправления.

Пример. Основываясь на уравнении статики и считая, что


значения температуры даны без ошибок, произвести контроль рас-
пределения высот изобарических поверхностей по следующим
данным:

р, гПа … 1000 850 700 500 300 200 100 50

Т ………. 287,4 278,7 268,5 251,9 228,5 216,7 216,7 216,7

Н, гп. дам 11 146 402 558 918 1280 1620 2060

Провести исправление грубых ошибок.

98
Указание. Одно из двух значений высот соседних изобариче-
ских поверхностей считать ошибочным, если средняя темпера-
тура слоя, расположенного между двумя уровнями, определенная
как средняя арифметическая из измерений и по уравнению стати-
ки, отличается более чем на 4 o .
Решение: Находим среднюю температуру слоя, расположен-
ного между двумя уровнями:
1) как среднюю арифметическую

Ti + Ti +1
Tариф. = и
2
2) из уравнения статики (3.4.1)
98
Tm = (H i +1 − H i ) ,
R ln (pi pi +1 )
где R = 287 Дж (кг ⋅ K ) , К – кельвин.
В результате получим следующие значения для температуры
Слой
между уровня- Tариф. Tm Tариф − Tm
ми, гПа

1000–850 283,1 283,6 0,5


850–700 273,6 450,2 176,6
700–500 260,2 158,3 101,9
500–300 240,2 240,6 0,4
300–200 222,6 304,9 82,3
200–100 216,7 167,5 49,2
100–50 216,7 216,8 0,1

Согласно условию задачи значения температуры даны без


ошибок, поэтому отклонения в рассчитанных средних температу-
рах по данным формулам возникают только за счет ошибок в зада-
нии высот изобарических поверхностей. Анализируя результаты

99
сделанных расчетов, видим, что недопустимые ошибки имеются в
данных о высотах изобарических поверхностей 700 и 200 гПа. Ис-
правим эти данные, используя уравнение (3.4.1). Результаты ис-
правлений могут зависеть от того, какой индекс мы придали рас-
четной высоте i или i+1 (эти различия обусловлены не точным
линейным изменением температуры с высотой, а также ошибками
округления при расчетах).
Пусть H 700 = H i . Тогда из формулы (3.4.1):

R p T + Ti +1
H i = H 700 = H i +1 − ln i i =
98 pi +1 2

R p 700 T700 + T500


= H 500 − ln =
98 p500 2

287 700
= 558 − ln 260,2 = 301,6 (гп. дам).
98 500
Видим, что исправленная высота изобарической поверхности
H 700 =301,6 гп. дам значительно отличается от заданной H 700 =402
гп. дам.
Пусть теперь H 700 = H i +1 . Тогда из формулы (3.4.1) имеем:
R p T + Ti +1
H i +1 = H 700 = H i + ln i i =
98 pi +1 2

R p850 T850 + T700


= H 850 − ln =
98 p 700 2

287 850
= 146 − ln 273,6 = 301,6 (гп. дам).
98 700

Аналогично исправляем высоту изобарической поверхности


200 гПа.

100
Полагаем H 200 = H i . Тогда

R p T + Ti +1
H i = H 200 = H i +1 − ln i i =
98 pi +1 2

287 200
H 200 = 1620 − ln 216,7 = 1180,1 (гп. дам).
98 100

Если принять H 200 = H i +1 , то

R p T + Ti +1
H i +1 = H 200 = H i + ln i i =
98 pi +1 2

287R 300
= 918 + ln 222,6 = 1182,3 (гп. дам).
98 200

Замечание. Все расчеты температуры и исправленных


высот изобарических поверхностей можно было округлить до
целых, так как ошибка в температуре дана с точностью до
целого знака.

101
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
Основная литература

1. Белов П. Н. Численные методы прогноза погоды / П. Н. Бе-


лов. – Л. : Гидрометеоиздат, 1975. – 392 с.
2. Белов П. Н. Сборник упражнений по численным методам
прогноза погоды / П. Н. Белов. – Л. : Гидрометеоиздат, 1980. –
136 с.
3. Белоусов С. Л. Обработка оперативной метеорологической
информации с помощью электронных вычислительных ма-
шин / С. Л. Белоусов, Л. С. Гандин, С. А. Машкович. – Л.:
Гидрометеоиздат, 1968. – 193 с.
4. Вагер Б. Г. Сплайны при решении прикладных задач метео-
рологии и гидрологии / Б. Г. Вагер, Н. К. Серков. – Л. : Гид-
рометеоиздат, 1987. – 160 с.
5. Гандин Л. С. Объективный анализ метеорологических полей /
Л. С. Гандин. – Л. : Гидрометеоиздат, 1963. – 289 с.
6. Гандин Л. С. Четырехмерный анализ метеорологических по-
лей / Л. С. Гандин. – Л. : Гидрометеоиздат, 1963. – 289 с.
7. Гандин Л. С. Практикум по численным методам прогноза по-
годы / Л. С. Гандин, А. М. Данович, Ю. М. Либерман,
Р. П. Репинская. – Л. : Гидрометеоиздат, 1978. – 216 с.
8. Гандин Л. С. Статистические методы интерпретации метео-
рологических данных / Л. С. Гандин, Р. Л. Каган. – Л. : Гид-
рометеоиздат, 1976. – 359 с.
9. Гордин В. А. Математические задачи гидродинамического
прогноза погоды / В. А. Гордин. – Л. : Гидрометеоиздат,
1963. – 289 с.
10. Дружинин В. С. Методы статистической обработки гидроме-
теорологической информации / В. С. Дружинин, А. В. Сикан. –
СПб. : Изд. РГГМУ, 2001. – 168 с.

102
11. Казакевич Д. И. Основы теории случайных функций в зада-
чах гидрометеорологии / Д. И. Казакевич. – Л. : Гидрометео-
издат, 1989. – 230 с.
12. Картвелишвили Н. А. Стохастическая гидрология /
Н. А. Картвелишвили. – Л. : Гидрометеоиздат, 1981. – 167 с.
13. Картвелишвили Н. А. Теория вероятностных процессов в
гидрологии и регулировании стока / Н. А. Картвелишвили. –
Л. : Гидрометеоиздат, 1985. – 192 с.
14. Тимченко И. Е. Динамико-статистические модели состояния
океана / И. Е. Тимченко. – Киев : Наукова думка, 1981. –
191 с.
15. Христофоров А. В. Теория случайных процессов в гидроло-
гии / А. В. Христофоров. – М. : МГУ, 1994. – 141 с.
16. Лекции по численным методам краткосрочного прогноза по-
годы. – Л. : Гидрометеоиздат, 1969. – 734 с.
17. Шелутко В. А. Статистические модели и методы исследова-
ния многолетних колебаний стока / В. А. Шелутко. – Л. :
Гидрометеоиздат, 1984. – 159 с.
18. Шелутко В. А. Численные методы в гидрологии / В. А. Ше-
лутко. – Л. : Гидрометеоиздат, 1991. – 238 с.
19. Юдин М. И. Новые методы и проблемы краткосрочного про-
гноза погоды / М. И. Юдин. – Л. : Гидрометеоиздат, 1963. –
404 с.

Дополнительная литература

1. Беляев В. И. О применении объективного и четырехмерного


анализа в океанографии / В. И. Беляев, И. Е. Тимченко //
Мор. гидрофиз. исследования. – 1972. – № 2 – С. 80–92.
2. Бендат Дж. Прикладной анализ случайных данных /
Дж. Бендат, А. Пирсол. – М. : Мир, 1989. – 540 с.
3. Бендат Дж. Прикладной анализ случайных данных /
Дж. Бендат, А. Пирсол. – М. : Мир, 1983. – 312 с.

103
4. Вентцель Е. С. Теория случайных процессов и ее инженер-
ные приложения / Е. С. Вентцель, Л. А. Овчаров. – М. : Нау-
ка, 1991. – 383 с.
5. Верещагин М. А. Статистические методы в метеорологии /
М. А. Верещагин, Э. П. Наумов, К. М. Шанталинский. – Ка-
зань: Изд-во Казан. ун-та, 1990. – 109 с.
6. Доценко С. В. Случайные процессы в гидрофизических изме-
рениях / С. В. Доценко. – Л. : Гидрометеоиздат, 1983. – 239 с.
7. Исаев А. А. Статистика в метеорологии и климатологии /
А. А. Исаев. – М. : МГУ, 1988. – 245 с.
8. Каган Р. Л. Осреднение метеорологических полей / Р. Л. Ка-
ган. – Л. : Гидрометеоиздат, 1979. – 213 с.
9. Карасев И. Ф. Стохастические методы речной гидравлики и
гидрометрии / И. Ф. Карасев, В. В. Коваленко. – СПб. : Гид-
рометеоиздат, 1992. – 208 с.
10. Коваленко В. В. Гидрометрическое оценивание речного сто-
ка с элементами стохастического подхода / В. В. Коваленко. –
Л. : ЛПИ, 1986. – 60 с.
11. Коваленко В. В. Измерение и расчет характеристик неустано-
вившихся речных потоков / В. В. Коваленко. – Л. : Гидроме-
теоиздат, 1984. – 160 с.
12. Кочергин В. П. Мониторинг гидрофизических полей океана /
В. П. Кочергин, И. Е. Тимченко. – Л. : Гидрометеоиздат,
1987. – 279 с.
13. Кучмент Л. С. Динамико-стохастические модели формиро-
вания речного стока / Л. С. Кучмент, А. Н. Гельфан. – М. :
Наука, 1993. – 103 с.
14. Монин А. С. Статистическая гидромеханика / А. С. Монин,
А. М. Яглом. – СПб. : Гидрометеоиздат, 1992. – Т. 1. – 694 с.
15. Монин А. С. Статистическая гидромеханика / А. С. Монин,
А. М. Яглом. – М. : Наука, 1967. – Ч 2. – 720 с.
16. Неуймин Г. Г. Построение поля показателя ослабления излу-
чения в Тропической Атлантике методом объективного ана-

104
лиза / Г. Г. Неуймин, Н. А. Сорокина, И. Е. Тимченко //
Океанология. – 1979, 19. – Вып. 4. – С. 600–607.
17. Музылев С. В. Статистические модели инженерной гидроло-
гии / С. В. Музылев, В. Е. Привальский, Д. Я. Раткович. – М. :
Наука, 1982. – 184 с.
18. Пановский Г. А. Статистические методы в метеорологии /
Г. А. Пановский, Г. В. Брайер. – Л. : Гидрометеоиздат, 1972. –
200 с.
19. Рождественский А. В. Статистические методы в гидрологии /
А. В. Рождественский, А. И. Чеботарев. – Л. : Гидрометеоиз-
дат, 1974. – 424 с.
20. Рожков В. А. Вероятностные модели океанологических про-
цессов / В. А. Рожков, Ю. А. Трапезников. – Л. : Гидрометео-
издат, 1990. – 272 с.
21. Смирнов Н. П. Методы многомерного статистического ана-
лиза в гидрологических исследованиях / Н. П. Смирнов. – Л. :
ЛГУ, 1986. – 190 с.
22. Рожков В. А. Вероятностные модели океанологических про-
цессов / В. А. Рожков, Ю. А. Трапезников. – Л. : Гидрометео-
издат, 1990. – 272 с.
23. Статистические методы в гидрологии / пер. с англ. М. И. Ру-
синова. – Л. : Гидрометеоиздат, 1970. – 271 с.
24. Гордин В. А. Математические задачи гидродинамического
прогноза погоды. Вычислительные аспекты / В. А. Гордин –
Л. : Гидрометеоиздат, 1987. – 264 с.

105
Учебное издание

Аргучинцева Алла Вячеславовна

МЕТОДЫ СТАТИСТИЧЕСКОЙ ОБРАБОТКИ


И АНАЛИЗА ГИДРОМЕТЕОРОЛОГИЧЕСКИХ
НАБЛЮДЕНИЙ

ISBN 978-5-9624-0165-2

Подготовлено к печати М. А. Айзиман


Дизайн обложки: М. Г. Яскин

Темплан 2007 г. Поз. 42.

Подписано в печать 17.05.07. Формат 60х84 1/16.


Печать трафаретная. Усл. печ. л. 4,8. Уч.-изд. л. 3,1.
Тираж 100 экз. Зак. 52.

РЕДАКЦИОННО-ИЗДАТЕЛЬСКИЙ ОТДЕЛ
Иркутского государственного университета
664003, г. Иркутск, бульвар Гагарина, 36

106

Вам также может понравиться