Открыть Электронные книги
Категории
Открыть Аудиокниги
Категории
Открыть Журналы
Категории
Открыть Документы
Категории
P
p3
p2
pn
p1
X
x1 x2 x3 … xn
F (x) F (x)
1 1
X X
0 0 x1 x2 x3 x4 …
f (x) f (x)
X X
0 0 x1 x2 x3 x4 … xN
∫ f ( x ) dx = 1.
−∞
Функция и плотность распределения случайной величины однознач-
но связаны между собой. В частности, функция распределения определяет-
ся через плотность распределения следующим образом:
40 Раздел 2. Элементы теории вероятностей
x
F ( x) = ∫ f ( x) dx. (2.2)
−∞
Тогда вероятность того, что случайная величина примет значение из
некоторого интервала (a, b), может быть определена через плотность
распределения как
b a
P(a < x < b) = ∫ f ( x) dx − ∫ f ( x) dx .
−∞ −∞
Таким образом, закон распределения непрерывной случайной
величины (непрерывный закон распределения) может быть задан в виде:
• функции распределения F(x) случайной величины X, называемой
также интегральным законом распределения;
• плотности распределения f(x) случайной величины X, называемой
также дифференциальным законом распределения.
i =1
D[ X ] = +∞
( x − M[ X ]) 2 f ( x) dx − для непрерывной случайной величины.
∫
−∞
Можно показать, что дисперсия и второй начальный момент связаны
следующей зависимостью:
D[ X ] = α 2 [ X ] − ( M[ X ]) 2 . (2.3)
Дисперсия случайной величины, как и второй начальный момент,
характеризует разброс значений случайной величины, но, в отличие от
второго начального момента, относительно математического ожидания,
и имеет размерность квадрата случайной величины.
При решении различных задач удобно пользоваться характеристикой
разброса, размерность которой совпадает с размерностью случайной
величины. Такой характеристикой является среднеквадратическое
отклонение σ [ X ] , которое определяется как корень квадратный из
дисперсии:
σ [ X ] = D[ X ] .
В качестве безразмерной характеристики разброса случайных
величин, определенных в области положительных значений, часто
используют коэффициент вариации ν [ X ] , который определяется как
отношение среднеквадратического отклонения к математическому
ожиданию:
σ[X ]
ν[X ] =
M[ X ]
при условии, что M[ X ] > 0 .
Применение числовых характеристик существенно облегчает
решение многих вероятностных задач, в частности, при решении сложных
Раздел 2. Элементы теории вероятностей 43
задач, когда использование законов распределений приводит к громоздким
выкладкам и не позволяет получить результаты в явном виде. Очень часто
удается решить задачу до конца, оставляя в стороне законы распределения
и оперируя одними числовыми характеристиками. Если в задаче
фигурирует большое количество случайных величин, то для
исчерпывающего суждения о результирующем законе распределения не
требуется знать законы распределения отдельных случайных величин,
фигурирующих в задаче, а достаточно знать лишь некоторые числовые
характеристики этих величин.
Кроме того, на практике (и в повседневной жизни) редко оперируют
законом распределения для описания конкретных физических величин,
предпочитая использовать такие понятия как среднее значение и, в некото-
рых случаях, разброс значений случайной величины или минимальное и
максимальное значение. Действительно, вряд ли для пассажиров, ожидаю-
щих на остановке автобус, представляет интерес закон распределения
интервалов между автобусами. Более важным и понятным является указа-
ние среднего или максимального интервала. В то же время при моделиро-
вании транспортных потоков для получения корректных и достоверных
результатов может потребоваться знание закона распределения или, по
крайней мере, нескольких моментов распределения искомых интервалов.
Альтернативой случайной величине является неслучайная величина,
называемая детерминированной. В некоторых задачах детерминирован-
ную величину X = x рассматривают как случайную, которая с вероят-
ностью p = 1 принимает одно и то же значение x .
1 *( k ) (k ) dk *
pk = X (0), X * (0) = X ( z) (k = 0, 1, 2, ...).
k! dz k z = 0
На основе производящей функции (2.4) могут быть вычислены
начальные и центральные моменты случайной величины, в частности
математическое ожидание и дисперсия определяются как
(1) ( 2) (1) (1)
M[ X ] = X * (1); D[ X ] = X * (1) + X * (1) − [ X * (1)]2 . (2.5)
Производящая функция X * ( z) суммы X = X1 + X 2 + K X n
независимых случайных величин равна произведению производящих
функций слагаемых:
X * ( z ) = X 1* ( z ) X 2* ( z ) K X n* ( z ) .
0,7
0,6
a = 0,5
0,5
Вероятность
0,4 а=1
0,3
0,2 а=2
0,1
0
0 1 2 3 4 5
Значения случайной величины
0,9
0,8
0,7
γ = 0,8
0,6
Вероятность
0,5
0,4
0,3 γ = 0,5
γ = 0,2
0,2
0,1
0
0 1 2 3 4 5
Значения случайной величины
0 при x < a;
x − a
F ( x) = при a < x < b; (2.10)
b − a
1 при x > b;
1
при a < x < b;
f ( x) = b − a (2.11)
0 при x > b.
На рис.2.6 показаны функция и плотность равномерного
распределения.
F(x)
1
0 а b x
f(x)
1
b−a
0 a b x
F(x)
1,2 f(x)
2
1
α =2 α =2
1,5
0,8
0,6 1 α =1
α =1
0,4
0,5 α = 0,5
0,2 α = 0,5
0 x 0 x
0 1 2 3 4 5 0 1 2 3 4 5
f(x)
1,2
α =1
1
0,8 k=1
0,6
k=2 k=4
0,4
0,2
0 x
0 0,8 1,6 2,4 3,2 4 4,8
Значения случайной величины
f(x)
2
k = 1 – экспоненциальное распределение
1,6
k = 16
1,2 α =1
0,8
k=2
0,4
0 x
0 0,8 1,6 2,4 3,2 4 4,8
1,4
1,2
ν[X ] = 2
1
0,8
0,6
ν[X ] = 1
0,4
0,2
0 x
0 0,2 0,4 0,6 0,8 1 1,2 1,4 1,6 1,8
0,016
ν[X ] = 1
0,014
0,012
0,01 ν[X ] = 2
0,008
0,006 ν[X ] = 4
0,004
0,002
0 x
4 4,4 4,8 5,2 5,6 6 6,4 6,8 7,2 7,6 8 8,4 8,8 9,2 9,6
Экспонен- 1 2 1 1
1 α >0
циальное α α 2
α 2
α
k k (k + 1) k k 1
Эрланга k = 1, 2, K
α α 2
α 2
α k
Эрланга k +1 1 1 1
1
нормиро- k = 1, 2, K
ванное α kα 2 kα 2
α k k
α 2[ X ] − n
Гиперэкс- n
q
2∑
n
qi ∑ qi = 1
поненци- ∑ αi α 2 − ( M [ X ]) 2 D[ X ] ν[X ] ≥ 1 i =1
i =1 i =1
альное i i
αi > 0
n
Гиперэр- n
qi n
ki + 1 α 2 [ X ] −
∑ qi = 1
лангов- ∑α ∑ i kα2
q D[ X ] ν[X ] ≥ 0 i =1
αi > 0
ское i =1 i i =1 i i − ( M [ X ]) 2
ki = 1, 2, K
Напомним, что представленные числовые характеристики связаны
между собой достаточно простыми соотношениями:
D[ X ] = α 2 [ X ] − (M[ X ]) 2 ;
σ [ X ] = D[ X ] ;
σ[X ]
ν[X ] = .
M[ X ]
Раздел 2. Элементы теории вероятностей 57
F (τ ) = 1 − e −ατ
τ
t
0 t0 t * ξ t1
F (ξ ) = 1 − e −αξ
Рис.2.12. Свойство отсутствия последействия
Это замечательное свойство экспоненциального распределения
используется при построении моделей марковских процессов,
представляющих собой особый класс случайных процессов, развитие
которых не зависит от предыстории процесса (см. п.5.1.2). Благодаря этому
для многих моделей массового обслуживания удается достаточно просто
получить конечные результаты, в том числе, в виде аналитических
зависимостей в явном виде для расчета характеристик исследуемой
системы. Поэтому часто при исследовании систем, в которых временные
процессы отличаются от экспоненциальных, стремятся свести эти
процессы к экспоненциальному представлению.
Напомним, что для экспоненциального закона распределения
случайных величин, определённых в области положительных значений
τ ≥ 0 , коэффициент вариации, описывающий разброс значений случайной
величины, равен единице. Если реальные временные интервалы имеют
значения коэффициента вариации значительно отличающиеся от единицы,
использование экспоненциального распределения может привести к
большим погрешностям конечных результатов. В этих случаях в качестве
аппроксимирующих функций законов распределений могут использовать-
58 Раздел 2. Элементы теории вероятностей
ся вероятностные законы, представляющие собой композицию экспонен-
циальных распределений, а именно:
• распределение Эрланга и гипоэкспоненциальное распределение,
когда коэффициент вариации временного интервала меньше единицы:
0 < ν < 1;
• гипреэкспоненциальное распределение, когда коэффициент
вариации временного интервала больше единицы: ν > 1 .
При этом аппроксимация реального распределения, в простейшем
случае, может выполняться по двум первым моментам распределения:
• математическому ожиданию;
• коэффициенту вариации.
2.6.1. Аппроксимация распределения с
коэффициентом вариации 0 < ν < 1
Положим, что математическое ожидание и коэффициент вариации
некоторой случайной величины τ , определенной в положительной области
действительных чисел, соответственно равны t и ν , причем 0 < ν < 1 .
Для аппроксимации закона распределения такой случайной величии-
ны в теории массового обслуживания часто используют распределение
Эрланга k-го порядка E k , которое может быть представлено в виде после-
довательности k экспоненциально распределенных фаз с одинаковым пара-
метром α i = α = 1 / M[τ ] (i = 1, k ) , где M[τ ] – математическое ожидание
экспоненциально распределенной случайной величины в одной фазе
(рис.2.13).
Такое представление позволяет трактовать формирование случайных
величин, распределенных по закону Эрланга, как сумму k случайных
величин, распределенных по одному и тому же экспоненциальному закону.
1 2 … k
F (τ ) = 1 − e −ατ
Ek
Рис.2.13. Многофазное представление распределения Эрланга
Математическое ожидание и коэффициент вариации случайной
величины, распределенной по закону Эрланга k-го порядка:
1
M Ek = k M[τ ]; ν Ek = ,
k
Раздел 2. Элементы теории вероятностей 59
где k = 1, 2, ... – параметр распределения Эрланга, принимающий только
целочисленные значения.
Тогда для заданных реальных (измеренных) значений математичес-
кого ожидания t и коэффициента вариации ν (0 < ν < 1) некоторой случай-
ной величины τ , определенной в положительной области действительных
чисел, параметры аппроксимирующего распределения Эрланга будут
определяться следующим образом:
1 t
k = 2 ; M[τ ] = ,
ν k
где ]x[ означает ближайшее целое, большее x, поскольку параметр k может
принимать только целочисленные значения.
Нетрудно убедиться, что распределение Эрланга позволяет
аппроксимировать только те реальные распределения, коэффициенты
вариации которых имеют следующие значения: ν = 0,707 при k = 2 ;
ν = 0,577 при k = 3 ; ν = 0,5 при k = 4 и т.д.
Для аппроксимации распределений с любым значением коэффициен-
та вариации, находящимся в интервале (0; 1), рассмотрим многофазное
распределение с разными параметрами экспоненциальных распределений
в фазах: α i = 1 / t i (i = 1, k ) , где t i – математическое ожидание экспонен-
циально распределенной случайной величины в i-й фазе. Такое распреде-
ление будем называть гипоэкспоненциальным распределением.
Проанализируем свойства гипоэкспоненциального распределения на
примере двухфазного распределения.
Известно, что преобразование Лапласа суммы независимых случай-
ных величин равно произведению преобразований Лапласа слагаемых
величин. Тогда преобразование Лапласа двухфазного гипоэкспоненциаль-
ного распределения будет равно произведению преобразований Лапласа
составляющих экспоненциальных распределений:
α1 α2 1 1
F * ( s ) = F1* ( s ) F2* ( s ) = × = × .
α1 + s α 2 + s 1 + st1 1 + st 2
Дифференцируя преобразование Лапласа по s в точке s=0, в
соответствии с (2.7) найдем математическое ожидание и второй начальный
момент для гипоэкспоненциального распределения:
M нсЭ2 = t1 + t 2 ; α (нсЭ
2)
= 2 (t12 + t1t 2 + t 22 ) .
2
Отсюда дисперсия, среднеквадратическое отклонение и коэффици-
ент вариации будут равны:
t12 + t 22
DнсЭ2 = t12 σ нсЭ2 =
+ t 22 ; ν нсЭ2 =
t12 + t 22 ; .
t1 + t 2
На рис.2.14 показана зависимость коэффициента вариации
двухфазного гипоэкспоненциального распределения от отношения t1 / t 2
параметров экспоненциальных составляющих.
60 Раздел 2. Элементы теории вероятностей
Как видно из графика, коэффициент вариации гипоэкспоненциаль-
ного распределения изменяется в пределах от 1 до 0,7, а точнее до
значения коэффициента вариации распределения Эрланга 2-го порядка:
ν = 0,707 , когда параметры экспоненциальных составляющих равны
между собой: t1 = t 2 .
Очевидно, что для того, чтобы увеличить интервал изменения
коэффициента вариации гипоэкспоненциального распределения,
необходимо вместо двухфазного использовать многофазное
представление.
Можно показать, что для гипоэкспоненциального распределения k-го
порядка математическое ожидание, дисперсия и коэффициент вариации
будут равны:
k
k k ∑ ti2
i =1
M нсЭk = ∑ t i ; DнсЭk = ∑ t i2 ; ν нсЭk = k
. (2.20)
i =1 i =1
∑ ti
i =1
0,95
0,9
Коэффициент вариации
0,85
0,8
0,75
0,7
0,65
0,6
0,55
0,5
0,05 0,15 0,25 0,35 0,45 0,55 0,65 0,75 0,85 0,95
Отношение t1/t2
t1 =
t
1 ±
k
k2
k1
( )
kν 2 − 1 , (2.23)
где k = k1 + k 2 .
В качестве приемлемого решения могут быть использованы оба
корня квадратного уравнения.
Для того чтобы в (2.23) под знаком квадратного корня иметь
неотрицательную величину, необходимо выполнение следующего условия:
1
k≥ 2. (2.24)
ν
Полученное условие определяет минимальное количество фаз в
аппроксимирующем гипоэкспоненциальном распределении.
Для того чтобы второе решение со знаком минус перед квадратным
корнем давало t1 ≥ 0 , дополнительно необходимо выполнение условия:
1
k2 ≤ 2 . (2.25)
ν
Объединив условия (2.24) и (2.25), окончательно получим вполне
очевидное условие:
1
k2 ≤ 2 ≤ k . (2.26)
ν
Подставим теперь (2.23) в (2.22) и найдем t 2 :
t2 =
t
k
1 m
k1
k2
(
kν 2
− 1)
, (2.27)
для которого получим условие, аналогичное (2.26):
1
k1 ≤ 2 ≤ k . (2.28)
ν
Таким образом, окончательно имеем следующие выражения для
аппроксимации гипоэкспоненциальным распределением k-го порядка
законов распределений случайных величин с коэффициентом вариации
0 < ν < 1:
k≥
1
ν2
t
k
k
k1
(
) t
k
k
(
)
; t1 = 1 + 2 kν 2 − 1 ; t2 = 1 − 1 kν 2 − 1 (2.29)
k2
или
k≥
1
ν2
t
k
k
k1
(
) t
k
k
(
)
; t1 = 1 − 2 kν 2 − 1 ; t 2 = 1 + 1 kν 2 − 1 (2.30)
k2
Окончательно алгоритм аппроксимации реального распределения с
коэффициентом вариации 0 < ν < 1 гипоэкспоненциальным распределением
при заданных значениях математического ожидания t и коэффициента
вариации ν (причем 0 < ν < 1 ) некоторой случайной величины τ ,
определенной в положительной области действительных чисел, выглядит
следующим образом:
Раздел 2. Элементы теории вероятностей 63
1) на основе первого выражения в (2.29) и (2.30) по заданному
значению коэффициента вариации ν определяется минимально
необходимое число экспоненциальных фаз k в аппроксимирующем
распределении как ближайшее большее целое по отношению к 1 /ν 2 ;
2) выбирается значение k1 ≤ k и рассчитывается k 2 = k − k1 ;
3) на основе (2.29) или (2.30) рассчитываются значения t1 и t 2 .
Результаты аппроксимации на основе выражений (2.29) и (2.30), а
также при различных значениях k1 и k 2 = k − k1 , различаются значениями
третьего и более высоких моментов распределения, но имеют одинаковые
первые и вторые моменты.
Учет более высоких моментов при аппроксимации реальных
распределений не вызывает принципиальных трудностей, но
сопровождается более громоздкими математическими выкладками. К тому
же, во многих случаях, влияние этих моментов на конечные результаты
исследований оказывается незначительным.
q1
r 1
∑ qi = 1 q2
i =1
2
…
qr
r
Hr
Рис.2.15. Многофазное представление
гиперэкспоненциального распределения
В простейшем случае гиперэкспоненциальное распределение может
быть представлено в виде двухфазного распределения (рис.2.16).
Параметрами такого распределения являются: t1 и t2 – математические
ожидания первой и второй экспоненциальных фаз соответственно; q –
вероятность формирования значения случайной величины в первой фазе.
Полученное таким обра-
зом распределение является exp(t1)
трехпараметрическим. Это озна- q
чает, что аппроксимация таким
распределением может выпол- 1-q exp(t2)
няться по трем числовым
моментам. Выбор значений
параметров гиперэкспонен- Рис.2.16. Двухфазное представление
циального распределения толь- гиперэкспоненциального распределения
ко по двум моментам (математическому ожиданию и коэффициенту
вариации) предполагает наличие некоторого произвола.
Таким образом, задача аппроксимации гиперэкспоненциальным
распределением сводится к определению значений параметров t1 , t 2 и q в
зависимости от известных значений математического ожидания t и
коэффициента вариации ν аппроксимируемого закона распределения
случайной величины τ .
Математическое ожидание и второй начальный момент
гиперэкспоненциального распределения соответственно равны:
t = q t1 + (1 − q ) t 2 ; (2.31)
t ( 2) = 2[q t12 + (1 − q ) t 22 ].
Тогда коэффициент вариации гиперэкспоненциального распреде-
ления:
2[q t12 + (1 − q ) t22 ]
ν = 2
− 1,
t2
Раздел 2. Элементы теории вероятностей 65
откуда:
2 [q t12 + (1 − q ) t 22 ] = t 2 (1 + ν 2 ). й (2.32)
Из (2.31) имеем:
t − q t1
t2 = . й йй й (2.33)
1− q
Подставив последнее выражение в (2.32), после некоторых
преобразований получим квадратное уравнение:
2q t12 − 4q t t1 + [1 + q − (1 − q )ν 2 ]t 2 = 0. (2.34)
Решая это квадратное уравнение относительно t1 , получим:
1− q 2
t1 = t 1 ± (ν − 1) .
2q
Для того чтобы гарантировать t1 > 0 , в качестве решения выберем
корень уравнения со знаком плюс перед знаком радикала:
1− q 2
t1 = 1 + (ν − 1) t . (2.35)
2q
Подставим (2.35) в (2.33) и найдем t 2 :
q
t 2 = 1 − (ν 2 − 1) t . (2.36)
2 (1 − q )
q
Потребуем, чтобы t 2 ≥ 0 , то есть (ν 2 − 1) ≤ 1 . Отсюда:
2(1 − q )
2
q≤ . (2.37)
1 +ν 2
Выражения (2.35) – (2.37) можно использовать для аппроксимации
любого закона распределения с коэффициентом вариации ν > 1 двухфаз-
ным гиперэкспоненциальным распределением, для чего достаточно
выбрать значение вероятности q из условия (2.37) и рассчитать значения
t1 и t 2 в соответствии с (2.35) и (2.36).
2
Рассмотрим частный случай, когда q = . Подставляя это
1 +ν 2
2.7. Резюме
1. Базовые понятия теории вероятностей – «событие»,
«вероятность», «случайная величина».
Вероятность – численная мера степени объективной возможности
некоторого события. Вероятность может принимать только положитель-
ные значения из интервала [0; 1].
Величина, принимающая значение, неизвестное заранее, называется
случайной. Различают дискретные (прерывные) и непрерывные
(аналоговые) случайные величины.
(−1) k d k *
αk[X ] = F ( s) .
k! ds k s =0
k≥
1
ν2
t
k
k
k1
(
) t
k
k
(
; t1 = 1 + 2 kν 2 − 1 ; t 2 = 1 − 1 kν 2 − 1 ;
k2
)
• если коэффициент вариации временного интервала больше
единицы (ν > 1 ), гипреэкспоненциальное распределение, параметры
которого рассчитываются по формулам:
2 1− q 2 q
q≤ ; t1 = 1 + (ν − 1) t ; t 2 = 1 − (ν 2 − 1) t .
1 +ν 2 2q 2 (1 − q )
Решение.
1) График функции распределения случайной величины Х:
F(x)
p1 + p 2 + p3 = 1
p1 + p 2 = 0,5
p1 = 0,2
0 1 2 3 x
Следует отметить, что значения функции распределения F ( x) для
каждого значения случайной величины xi увеличиваются на величину,
равную соответствующей вероятности pi появления этого значения,
причем самое верхнее значение всегда равно 1.
Отметим также, что, как показано на графике (в виде черных
кружочков), значения функции распределения в точках x = 1 , x = 2 и x = 3
соответственно равны: F (1) = 0 , F (2) = 0,2 и F (3) = 0,5 , поскольку
функция распределения F ( x) определяется как вероятность появления
случайной величины, значение которой строго меньше (а не меньше или
равно) x : F ( x) = P( X < x) .
2) Математическое ожидание:
M [ X ] = p1x1 + p2 x2 + p3 x3 = 0,2 × 1 + 0,3 × 2 + 0,5 × 3 = 2,3 .
Второй начальный момент:
α 2 [ X ] = p1 x 12 + p 2 x 22 + p3 x 23 = 0,2 × 1 + 0,3 × 4 + 0,5 × 9 = 5,9 .
Дисперсия: D[ X ] = α 2 [ X ] − ( M [ X ]) 2 = 5,9 − 5,29 = 0,61 .
Среднеквадратическое отклонение: σ [ X ] = D[ X ] ≈ 0,78 .
σ[X ]
Коэффициент вариации: ν [ X ] = ≈ 0,34 .
M[X ]
72 Раздел 2. Элементы теории вероятностей
Задача 2. Чему равно математическое ожидание, дисперсия, второй
начальный момент и коэффициент вариации детерминированной величины
x = 10 ? Нарисовать график функции и плотности распределения
случайной величины.
Дано: детерминированная величина: x = 10 .
Требуется:
1) вычислить M [ X ], D[ X ], α 2 [ X ], ν [ X ] ;
2) нарисовать F ( x) и f ( x) .
Решение.
1) Детерминированную величину можно рассматривать как
случайную величину, принимающую одно и то же значение x = 10 с
вероятностью p = 1 . Тогда:
• математическое ожидание: M [ X ] = p x = 10 ;
• второй начальный момент: α 2 [ X ] = p x 2 = 100 ;
• дисперсия: D[ X ] = α 2 [ X ] − ( M [ X ]) 2 = 0 ;
D[ X ]
• коэффициент вариации: ν [ X ] = = 0.
M[X ]
Полученные достаточно тривиальные результаты становятся очевид-
ными, если вспомнить физическое толкование представленных величин.
Математическое ожидание, представляющее собой среднее значение слу-
чайной величины, естественно, совпадает с единственно возможным значе-
нием x = 10 . Дисперсия, среднеквадратическое отклонение и коэффициент
вариации, определяющие разброс значений относительно математического
ожидания, очевидно всегда равны нулю для детерминированной величины,
поскольку разброса значений просто нет. Однако следует обратить
внимание, что второй начальный момент не равен нулю, хотя тоже опреде-
ляет разброс значений, но, в отличие от предыдущих характеристик,
относительно начала координат. Действительно, единственное значение
x = 10 находится от начала координат на «расстоянии», не равном нулю и,
следовательно, второй начальный момент отличен от нуля.
2) Графики функции и плотности распределения детерминированной
величины:
F ( x) f ( x)
0 10 x 0 10 x
Раздел 2. Элементы теории вероятностей 73
Как следует из представленных графиков, функция распределения
детерминированной величины представляет собой функцию Хевисайда, а
плотность распределения – дельта-функцию:
F ( x) = H ( x − M ); f ( x) = δ ( x − M ) ,
где М – математическое ожидание, равное значению детерминированной
величины (в нашем случае М=10).
Решение.
1) Графики плотности и функции равномерно распределённой
случайной величины:
f ( x)
x
-30 -20 -10 0 +10 +20
F ( x)
1
x
-30 -20 -10 0 +10 +20