Вы находитесь на странице: 1из 77

ФЕДЕРАЛЬНОЕ АГЕНТСТВО ЖЕЛЕЗНОДОРОЖНОГО ТРАНСПОРТА

ИРКУТСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ


ПУТЕЙ СООБЩЕНИЯ

Г. Д. Гефан

МАРКОВСКИЕ ПРОЦЕССЫ

И СИСТЕМЫ МАССОВОГО ОБСЛУЖИВАНИЯ

Учебное пособие
по дисциплине «Математика»
для студентов заочной формы обучения

ИРКУТСК

2009
УДК 519.8
ББК 22.18
Г45

Рецензенты: доктор физико-математических наук В.Б. Иванов, профессор


кафедры радиофизики ИГУ;
кандидат физико-математических наук О.Д. Толстых, доцент
кафедры высшей математики ИРГУПС;
кандидат технических наук И.П. Медведева, доцент кафедры
высшей математики ИРГУПС.

Гефан Г.Д. Марковские процессы и системы массового обслуживания.


Учебное пособие – Иркутск: ИрГУПС, 2009. – 77 с.

Учебное пособие представляет собой руководство к изучению мар-


ковских случайных процессов и систем массового обслуживания в объёме,
достаточном для ряда технических и экономических специальностей вузов.
Особенностью пособия является то, что в нём для решения задач предлага-
ется активно использовать компьютер (офисную программу EXCEL). В
конце пособия приводятся задачи контрольной работы.

Ил. 5. Библиогр.: 12 назв.

© Гефан Г.Д., 2009


© Иркутский государственный университет путей сообщения, 2009

2
Оглавление
Предисловие………………………………………………………………….. 4
1. Марковский случайный процесс с дискретными состояниями
и дискретным временем………………………………………………….. 6
1. 1. Понятие случайного процесса и случайной функции…………… 6
1. 2. Марковский процесс с дискретными состояниями
и дискретным временем…………………………………………… 7
1. 3. Классификация состояний………………………………………… 10
1. 4. Вероятности переходов за m шагов……………………………….. 11
1. 5. Распределение вероятностей по состояниям…………………….. 11
1. 6. Стационарное распределение вероятностей состояний………… 12
2. Марковский процесс с дискретными состояниями и непрерывным
временем…………………………………………………………………. 16
2.1. Матрица интенсивностей………………………………………….. 16
2.2. Системы уравнений Колмогорова……………………… 18
2.3. Предельный стационарный режим……………………………….. 20
2.4. Процесс гибели и размножения…………………………………… 21
3. Системы массового обслуживания (СМО). Замкнутая марковская
СМО без отказов и без ожидания……………………………………….. 22
3.1. Понятие систем массового обслуживания………………………… 22
3.2. Простейший поток и его свойства…………………………………. 23
3.3. Марковская система массового обслуживания…………………… 24
4. Различные виды СМО и показатели их эффективности.……………. 26
4.1. Одноканальная СМО с отказами …………………………………. 26
4.2. Многоканальная СМО с отказами………………………………… 29
4.3. Одноканальная СМО с неограниченной очередью ……………… 32
4.4. Многоканальная СМО с неограниченной очередью…………….. 35
4.5. Понятие об оптимизации систем массового обслуживания……. 39
5. Решение задач о случайных процессах и СМО на компьютере (в
EXCEL)…………………………............................................................... 41
5.1. Марковские процессы с дискретным временем…………………… 41
5.2. Марковские процессы с непрерывным временем…………………. 46
5.3. СМО без отказов и ожидания……………………………………….. 49
5.4. Многоканальные СМО с отказами…………………………………. 51
6. Моделирование случайных процессов и систем массового обслужи-
вания методом Монте-Карло…………………………………............... 54
6.1. Понятие статистического моделирования……………………….. 54
6.2. Примеры анализа случайных процессов и СМО методом Монте-
Карло………………………………………………………………… 57
Вопросы для самоконтроля…………………………………………………. 64
Задачи контрольной работы………………………………………………… 66
Библиографический список………………………………………………… 71

3
Предисловие

При построении математических моделей, которые служат для опи-


сания и изучения различных процессов, а также для их оптимизации, ис-
пользуется два основных подхода. Первый подход, который называют де-
терминированным, основывается на предположении, что условия протека-
ния процесса полностью определены заранее. В этом случае все факторы,
от которых зависит протекание процесса, можно разделить на две группы:
(1) объективные условия протекания процесса, о которых мы знаем, но на
которые не можем влиять; (2) зависящие от нас элементы, управляя кото-
рыми, мы можем добиваться нужного (с нашей точки зрения) протекания
процесса. Такой подход реализуется, например, в большинстве задач ма-
тематического программирования и оптимального управления.

Второй подход, который называют вероятностным или стохасти-


ческим, применяется в тех случаях, когда исследователь понимает, что
кроме двух названных групп факторов протекания процесса есть ещё и
третья группа – неизвестные факторы, которые делают задачу неопреде-
лённой. В этой ситуации приходится говорить о случайном процессе. При-
менение термина «случайный» вовсе не означает, что данный процесс не
подчиняется никаким закономерностям. Так называемая «доброкачествен-
ная» или стохастическая неопределённость – это ситуация, в которой воз-
действие неизвестных факторов можно описать в терминах теории вероят-
ностей, т.е. пользуясь понятиями случайных величин (или случайных
функций) и их распределений. Типичными примерами случайных процес-
сов могут служить броуновское движение, турбулентные течения жидко-
стей и газов, вариации геомагнитного поля, процессы в головном мозге че-
ловека и др. К случайным процессам можно причислить и многие произ-
водственные и экономические процессы.

Первые шаги по созданию теории случайных процессов, относились


к задачам, в которых время изменялось дискретно (А.А. Марков, начало
20 века). Развитие теории случайных процессов, зависящих от непрерывно
меняющегося времени, является заслугой Е.Е. Слуцкого, А.Н. Колмогоро-
ва, А.Я. Хинчина, Н. Винера, В. Феллера, П. Леви, Х. Крамера. Наиболее
детально разработана теория так называемых марковских процессов. Клю-
чевым понятием для описания случайного процесса является понятие со-
стояний некоторой системы (случайный процесс – это процесс перехода
системы из одних состояний в другие). В конце 1960-х годов были введены
так называемые скрытые марковские модели, описывающие двойной сто-
хастический процесс (Л. Баум). В этом случае каждое состояние системы,
скрытое от наблюдателя, может ещё и проявлять себя по-разному, что так-
же описывается в терминах теории вероятностей.

4
Математическая теория массового обслуживания возникла для опи-
сания работы систем, предназначенных для обслуживания массового пото-
ка требований случайного характера (случайными могут быть как моменты
прихода требований, так и затраты времени на их обслуживание). Задачи
массового обслуживания, сформулированные математически, обычно сво-
дятся к изучению случайных процессов. Становление теории массового
обслуживания было вызвано интересом к математическим задачам, возни-
кающим в организации телефонных сетей (датский инженер А. Эрланг, на-
чало 20 века). Дальнейшее развитие теория массового обслуживания полу-
чила в 1940–1950 годах в трудах К. Пальма, Ф. Поллачека, А.Я. Хинчина,
которому принадлежит и сам термин «теория массового обслуживания».

Данное учебное пособие представляет собой руководство к изуче-


нию марковских случайных процессов и систем массового обслуживания
в объёме, достаточном для ряда технических и экономических специально-
стей вузов. Особенностью пособия является то, что в нём для решения за-
дач предлагается активно использовать компьютер (офисную программу
EXCEL). В параграфах 1-4 излагаются основные положения теории мар-
ковских случайных процессов и систем массового обслуживания, рассмат-
риваются типичные примеры и анализируется их решение «вручную». В
параграфе 5 приводятся инструкции по решению тех же и более сложных
задач в EXCEL. В параграфе 6 речь идёт о применении метода Монте-
Карло. Материал параграфов 5 и 6 по усмотрению преподавателя можно
рассматривать как дополнительный.
В конце пособия приводятся задачи контрольной работы. Номер за-
дачи (1-4) соответствует номеру параграфа, на материале которого эта за-
дача сформирована. Предполагается, что некоторые пункты заданий будут
выполняться с использованием компьютера (по усмотрению преподавателя
они могут быть исключены). То же самое касается целиком задания 5,
сформированного на материале параграфа 6.

Автор считает нужным отметить, что на начальном этапе в работе


над пособием принял участие и предоставил отдельные материалы к пара-
графам 1 и 2 доцент А.В. Колокольчиков. Автор благодарит доцента О.Д.
Толстых и доцента И.П. Медведеву за полезные замечания по содержанию
пособия.

5
1. Марковский случайный процесс
с дискретными состояниями и дискретным временем

1.1. Понятия случайной функции и случайного процесса

Случайной функцией называется функция, которая в результате опы-


та может принять тот или иной вид, заранее неизвестно − какой именно.
Конкретный вид, принимаемый случайной функцией в результате опыта,
называется её реализацией. На рис. 1 показаны 3 реализации случайной
функции.
X (t )
x1 (t )

x2 (t )
x3 ( t )
t
t1
Рис. 1
Случайная функция совмещает в себе черты случайной величины и
обычной функции. Если провести только один опыт, то мы получим един-
ственную реализацию, которая представляет собой неслучайную функцию
(например, ход температуры в течение определённого года). Если зафик-
сировать значение аргумента, то мы получим обычную случайную величи-
ну. Например, если X (t ) − годовой ход температуры, то X (t1 ) − будет, ска-
жем, температура 1 января в 12.00.
Случайная величина, в которую превращается случайная функция
при фиксации времени, называется сечением случайной функции при дан-
ном времени.
Введя m фиксированных моментов времени (искусственная дискре-
тизация времени), мы получим систему случайных величин
X (t1 ), X (t 2 ),..., X (t m ) . Например, такая система может характеризовать по-
ведение температуры за год по дням (скажем в 12.00 каждого дня). Однако
такое представление случайной функции X (t ) , конечно, будет неполным.
Можно сказать, что случайная функция — это бесконечномерная система
случайных величин.

Пусть имеется некоторая физическая система S , которая с течением


времени меняет своё состояние (переходит из одного состояния в другое)
заранее неизвестным, случайным образом. Тогда мы будем говорить, что в
системе S протекает случайный процесс. Под «физической системой»

6
можно понимать что угодно: техническое устройство, предприятие, от-
расль промышленности, живой организм, популяцию и т.д.

В математических исследованиях под случайным процессом пони-


мают просто случайную функцию X (t ) , которая может принимать либо
отдельные числовые значения (процесс с дискретными состояниями), ли-
бо любые значения из некоторого интервала (непрерывный процесс).
Если изменения состояний системы могут происходить только в оп-
ределённые моменты времени, то говорят о случайном процессе с дис-
кретным временем. Если же изменения состояний системы могут проис-
ходить в любые моменты времени, то говорят о случайном процессе с не-
прерывным временем.
Пусть, например, состояние воды в озере характеризуется в терми-
нах «вода-лёд». В этом случае следует говорить о процессе с дискретными
состояниями (упрощая картину, считаем, что вода промерзает или тает од-
новременно на всей глубине) и непрерывным временем. Процессу следует
поставить в соответствие случайную функцию
⎧0, если вода не замерзла,
X (t ) = ⎨
⎩1, если вода превратилась в лёд,
где t − момент времени в течение года.

Пусть состояние воды в течение года характеризуется поведением


температуры. В этом случае следует говорить о случайной функции X (t ) ,
где X − температура. Функция является случайной, потому что в разные
годы она будет выглядеть по-разному.

1.2. Марковский процесс с дискретными состояниями


и дискретным временем

Случайный процесс называется марковским, если для любого мо-


мента времени вероятностные характеристики процесса в будущем
зависят только от его состояния в данный момент времени и не зави-
сят от того, когда и как система пришла в это состояние. («Будущее
зависит от прошлого только через настоящее»). Употребляется также вы-
ражение «цепь Маркова».

Пусть некоторая система может находиться в состояниях S1 , S 2 , …,


S k , а изменения состояний могут происходить в определённые моменты
времени t1 , …, t n . Через Pij( m ) мы будем обозначать условную вероятность

7
того, что если в момент t m −1 система находилась в состоянии S i , то в мо-
мент t m (то есть на шаге m) система перейдёт в состояние S j :

Pij( m ) = P (S (t m ) = S j S (t m −1 ) = S i ) . (1.1)

Процесс будет марковским, если эта вероятность на каждом шаге зависит


только от состояния, в которое система попала на предыдущем шаге, и не
зависит от предыдущих шагов. Иначе говоря, для «марковости» процесса
записанная условная вероятность (1.1) не должна зависеть от m .

Возможные состояния системы и переходы между ними принято


представлять с помощью графов. Граф Г = (X, U) определяется как сово-
купность двух множеств:
• множества элементов любой природы x ∈ X , называемых вершинами
(или узлами) графа;
• множества пар элементов u = (a, b) ∈ U , a ∈ X , b ∈ X , называемых
рёбрами графа.
Если внутри пары u = (a, b) строго определён порядок следования вершин,
то такое ребро называется ориентированным (направленным) ребром или
дугой.
В нашем случае вершины графа – это состояния системы, а дуги
графа – это переходы между состояниями. Граф, на котором указаны веро-
ятности переходов, называется размеченным. Заметим сразу, что переход
из состояния S i в то же самое состояние S i обычно дугой не обозначается
и соответствующая вероятность Pii(m ) на графе не пишется, хотя эта веро-
ятность, вообще говоря, не равна нулю.

Если условная вероятность Pij( m ) не зависит от m (от момента време-


ни t m ), то цепь называется однородной. В дальнейшем мы будем рассмат-
ривать только такие цепи. В этом случае используют матрицу переходных
вероятностей (матрицу перехода). Это матрица вида

⎛ P11 P12 ... P1k ⎞


⎜ ⎟
~ ⎜P P22 ... P2 k ⎟
P = ⎜ 21
... ... ... ... ⎟
⎜⎜ ⎟
⎝ Pk 1 Pk 2 ... Pkk ⎟⎠

Свойства этой матрицы достаточно очевидны. Во-первых, её элементы не-


отрицательны. Во-вторых, для каждой строки матрицы перехода выполня-
ется условие

8
k
∑ Pij = 1, i = 1, k (1.2)
j =1

поскольку переходы из состояния S i на шаге m во все возможные состоя-


ния S j ( j = 1, k ) представляют собой полную группу несовместных собы-
тий.

Пример 1. Рассмотрим марковскую цепь, заданную следующим раз-


меченным графом:

2
3
S1 S2
2
5

Очевидно, система может находиться в двух состояниях, причём


P12 = 2 3 , P21 = 2 5 (это недиагональные элементы матрицы перехода). Как
уже сказано, переход в то же самое состояние обычно на графе не изобра-
жается, но соответствующие вероятности (диагональные элементы матри-
цы) могут быть найдены по сформулированному выше правилу: сумма
элементов любой строки матрицы перехода равна 1. Таким образом,

~ ⎛ 13 2
3⎞
P = ⎜⎜ 2 3
⎟⎟ .
⎝ 5 5⎠

Заметим, что два способа задания цепи Маркова – размеченным


графом состояний и матрицей перехода – являются равносильными. В
следующем примере по матрице перехода будет составлен размеченный
граф состояний.

Пример 2. Рассмотрим цепь Маркова, обладающую тремя


состояниями и предназначенную для моделирования погоды.
Предполагается, что раз в день (например, в полдень) состояние погоды
описывается одной и только одной из следующих характеристик: S1 –
осадки, S 2 – облачно, S 3 – ясно. Матрица переходных вероятностей имеет
вид
⎛ 0,4 0,3 0,3 ⎞
~ ⎜ ⎟
P = ⎜ 0,2 0,6 0,2 ⎟ .
⎜ 0,1 0,1 0,8 ⎟
⎝ ⎠
(Например: вероятность того, что после облачного дня снова будет
облачно, равна 0,6; вероятность того, что после ясного дня будет дождь,

9
равна 0,1 и т.д.) Составить размеченный граф состояний. Пусть известно,
что сегодня – ясный день. Какова вероятность того, что завтра будет
облачно, а послезавтра пойдёт дождь?
При составлении графа состояний указываем только переходы в иные
состояния (вероятности этих переходов являются недиагональными
элементами матрицы перехода).

0,3
S1 S2
0,2
0,3 0,2
0,1 0,1
S3

Вероятность того, что завтра будет облачно, а послезавтра пойдёт


дождь, находим по закону умножения вероятностей зависимых событий:
p = P (S (t 2 ) = S 2 S (t1 ) = S 3 ) ⋅ P (S (t 3 ) = S1 S (t 2 ) = S 2 ) =
= P32 P21 = 0,1 ⋅ 0,2 = 0,02.

Поставим другой вопрос: какова вероятность того, что погода


останется в некотором известном состоянии S i ровно x дней? Нетрудно
понять, что речь идёт о геометрическом распределении случайной
величины

p i ( X = x) = (Pii )
x −1
(1 − Pii ) , i = 1, 2, 3 . (1.3)

Например, если известно, что сегодня дождь, то вероятность того, что он


будет идти ровно 3 дня (включая сегодняшний), равна

p1 ( X = 3) = (P11 ) (1 − P11 ) = 0,4 2 ⋅ 0,6 = 0,096 .


2

Математическое ожидание случайной величины X можно


рассматривать как характеристику длительности данного состояния S i в
цепи Маркова. Для геометрического распределения (1.3) можно получить
∞ ∞ 1
M i ( X ) = ∑ xp i ( X = x ) = ∑ x(Pii )
x −1
(1 − Pii ) = . (1.4)
x =1 x =1 1 − Pii

Так среднее число дождливых дней подряд оказывается равным


1 / 0,6 = 1,67 , облачных дней – 2,5, ясных дней – 5.

10
1.3. Классификация состояний

По своему характеру состояния системы могут различаться. Состоя-


ние S i называется несущественным, если найдется такое состояние
S j (i ≠ j ) , что из S i в S j перейти можно, а из S j в S i — нельзя. Иначе го-
воря, имеется такой переход из несущественного состояния S i , который
приведёт к тому, что в S i нельзя будет вернуться. Состояние S i называется
существенным, если оно не является несущественным. Любой переход из
существенного состояния допускает возможность возврата в это состоя-
ние.
Два состояния S i и S j называются сообщающимися, если из S i
можно попасть в S j и наоборот.
В примере 1 оба состояния являются существенными и сообщающи-
мися.
Если, попав в состояние S i , система не может из него выйти, то S i
называется состоянием поглощения. Оно может быть обозначено на графе
петлей. Состояние поглощения относится к существенным состояниям.

На рис. 2 состояния S 0 , S 2 и S8 являются несущественными (напри-


мер, из S 0 можно попасть в S1 , но возвратиться невозможно). При этом S8

S0

S8 S2 S1
S3

S4 S5 S6 S7

Рис.2

и S 2 являются сообщающимися. Состояния S1 , S 3 , S 4 , S 5 , являются су-


щественными, причем из них состояния S1 , S 6 , S 7 , а также S 4 и S 5 явля-
ются сообщающимися между собой. Состояние S 3 является состоянием
поглощения.

Состояния системы объединяются в классы сообщающихся состоя-


ний. Это могут быть классы существенных и несущественных состояний.

11
Так, в графе, который изображён на рисунке, имеются следующие три
класса существенных состояний: S 3 (состоит из одного состояния погло-
щения); S 4 и S 5 ; S1 , S 6 и S 7 . Имеется также два класса несущественных
состояний: S 0 (из одного состояния); S 2 и S8 .
Если число состояний конечно, то система рано или поздно выйдет
из класса несущественных состояний и после этого окажется (и останется)
в одном из классов существенных состояний. Такая цепь называется при-
водимой. Если же цепь состоит из одного класса существенных сообщаю-
щихся состояний, то она называется неприводимой.

1.4. Вероятности переходов за m шагов

Процесс перехода за m шагов из состояния S i в состояние S j может


быть представлен в виде следующих двух этапов: сначала переход за r
шагов ( 1 ≤ r < m ) в некоторое промежуточное состояние S l , а затем пере-
ход за оставшихся m − r шагов в состояние S j . Для вычисления вероятно-
стей переходов за m шагов служит равенство Маркова
k
Pij ( m ) = ∑ Pil ( r ) Plj ( m − r ) , (1.5)
l =1

которое вытекает из формулы полной вероятности, где в качестве гипотез


фигурируют всевозможные промежуточные состояния.
~
Обозначим матрицу перехода за 1 шаг через P , а матрицу перехода
~
за m шагов через P ( m) . Элемент Pij этой матрицы, как это следует из ра-
~
венства Маркова, равен произведению строки i матрицы P ( r) на столбец
~
j матрицы P ( m − r ) . Таким образом, в матричной форме равенство Мар-
кова имеет вид
~ ~ ~
P ( m) = P ( r) P ( m − r) , r = 1, m − 1. (1.6)
Это соотношение выражает связь между вероятностями переходов для ка-
ких-нибудь трех последовательных моментов времени. Например, при
~ ~ ~
r = 1 получаем P ( m) = P (1) P (m − 1) . Следовательно,
~ ~ ~ ~ ~ ~ ~ ~ ~ ~
P ( 2) = P (1) P (1) = P 2 , P (3) = P (2) P (1) = P 3 , … P ( m) = P m . (1.7)
Итак, для того, чтобы найти матрицу перехода за m шагов, следует
матрицу перехода за 1 шаг возвести в степень m .
Матрицы перехода за m шагов обладают теми же свойствами, что и
матрицы перехода за один шаг.

12
1.5. Распределение вероятностей по состояниям

Обозначим через Pi (m) безусловную вероятность того, что система в


момент времени t m (на шаге m ) окажется в состоянии S i . Тогда совокуп-
ность вероятностей Pi (m) , i = 1, ..., k , будет образовывать вектор, который
называется вектором распределения вероятностей по состояниям:

P (m ) = (P1 (m ), P2 (m ), ..., Pk (m )) . (1.8)

Для этого вектора выполняются стандартные свойства распределения ве-


роятностей:
0 ≤ Pi (m ) ≤ 1, i = 1, k ;
k
∑ Pi (m) = 1.
i =1

По формуле полной вероятности


n
Pj (m) = ∑ Pi (m − 1)Pij , j = 1,2, ... k .
i =1

Отсюда следует, что j -ый элемент вектора P(m) равен произведению век-
~
тора P( m − 1) на j -ый столбец матрицы P . Таким образом, в матричном
виде
~
P(m ) = P(m − 1)P. (1.9)
Из последней формулы получим:
~
P(1) = P(0 )P ,
~ ~
P (2) = P (1)P = P (0 )P 2 ,

~
P (m ) = P (0)P m . (1.10)
Пусть известен начальный вектор вероятностей состояний
P (0) = (P1 (0), P2 (0), ..., Pi (0), ... Pk (0) ).
Тогда формула (1.10) позволяет получать распределение вероятностей по
состояниям на любом шаге. Итак, для того, чтобы найти вектор рас-
пределения вероятностей по состояниям на шаге m , следует умно-
жить начальный вектор вероятностей состояний на матрицу перехо-
да за m шагов.

13
1.6. Стационарное распределение
вероятностей состояний

Распределение вероятностей состояний P st = ( P1 , P2 , ..., Pk ) называ-


ется стационарным, если оно не изменяется от шага к шагу, т.е.
~
P st = P st P . То же требование можно переписать в виде
~
P st ( P − E ) = 0 . (1.11)
Записанному матричному уравнению соответствует система линейных од-
нородных уравнений, имеющая ненулевые решения при условии
~
det( P − E ) = 0 .
Эту систему следует дополнить условием нормировки вероятности
k
∑ Pi = 1. (1.12)
i =1

В связи с проблемой нахождения стационарного распределения ве-


роятностей возникает целый ряд вопросов. Существует ли такое распреде-
ление? Является ли оно единственным? Зависит ли оно от начального рас-
пределения? Устанавливается ли оно при большом времени работы систе-
мы (иначе говоря, является ли оно предельным распределением)? Не уг-
лубляясь в эти достаточно сложные вопросы, сформулируем так называе-
мое условие случайного эргодического процесса (Вентцель, 2001): для то-
го, чтобы марковская цепь с конечным числом состояний имела един-
ственное стационарное предельное распределение вероятностей, необ-
ходимо и достаточно, чтобы все существенные состояния были сооб-
щающимися.

Предельная стационарная вероятность несущественного со-


стояния всегда оказывается равной нулю: рано или поздно система вы-
ходит из этого состояния и уже в него не возвращается.

Напротив, предельная стационарная вероятность единственного


состояния поглощения (при отсутствии других классов существенных
состояний) всегда оказывается равной единице: рано или поздно систе-
ма придёт в это состояние и уже из него не выйдет.

Пример 3. Матрица перехода цепи Маркова имеет вид

14
~ ⎛ 0,4 0,6 ⎞
P = ⎜⎜ ⎟⎟ .
⎝ 0,3 0,7 ⎠
Распределение вероятностей по состояниям в начальный момент ха-
рактеризуется вектором P = (0,1; 0, 9) . Найти:
1) матрицу перехода за 2 шага;
2) распределение вероятностей по состояниям после 2-го шага;
3) вероятность того, что после 1-го шага состоянием цепи будет S1 ;
4) стационарное распределение вероятностей по состояниям.

1. По формуле (1.7)

~ ~ ⎛ 0,4 0,6 ⎞ ⎛ 0,4 0,6 ⎞ ⎛ 0,34 0,66 ⎞


P (2) = P 2 = ⎜⎜ ⎟⎟ ⋅ ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ .
⎝ 0,3 0,7 ⎠ ⎝ 0,3 0,7 ⎠ ⎝ 0,33 0,67 ⎠
Контроль: 0,34 + 0,66 = 1; 0,33 + 0,67 = 1 .
2. По формуле (1.10)
~ ⎛ 0,34 0,66 ⎞
P (2) = P (0) P 2 = (0,1; 0, 9)⎜⎜ ⎟⎟ = (0, 331; 0, 669) .
⎝ 0,33 0,67 ⎠
Контроль: 0,331 + 0,669 = 1 .

~ ⎛ 0,4 0,6 ⎞
3. P (1) = P (0) P = (0,1; 0, 9)⎜⎜ ⎟⎟ .
⎝ 0,3 0,7 ⎠
Отсюда P1(1)=0,1·0,4+0,9·0,3=0,31.
4. Для отыскания стационарного распределения составим систему
уравнений
⎧ ⎛ 0,4 0,6 ⎞
⎪ 1 2 ⎜⎜ 0,3 0,7 ⎟⎟ = (P1 , P2 ),
( P , P ) ⎧ 0, 4 P1 + 0, 3P2 = P1 ,
⎪ ⎝ ⎠ ⎪
⎨ ⇒ ⎨0, 6 P1 + 0, 7 P2 = P2 ,
⎪ ⎪ P1 + P2 = 1.
⎪⎩ ⎩
P1 + P2 = 1.

В последней системе первое и второе уравнения линейно зависимы


(суммирование этих уравнений даёт третье уравнение), поэтому одно из
них можно вычеркнуть. Из первого уравнения имеем P2 = 2P1 . С учётом
третьего уравнения получим P1=1/3, P2=2/3. Стационарное распределение
имеет вид

15
⎛1 2⎞
P = ⎜ ; ⎟.
⎝ 3 3⎠
Смысл полученного результата таков: в установившемся режиме система
будет одну треть времени проводить в состоянии S1 и две трети — в со-
стоянии S 2 .

Пример 4. Имеется предприятие, выпускающее некоторый товар А.


Вероятность того, что этот товар будет пользоваться достаточным спро-
сом, равна 0,5. Если в течение недели товар пользуется спросом, то выпуск
его продолжается. В противном случае на следующей неделе предприятие
выпускает другой товар В, имеющий вероятность достаточного спроса 0,6.
Если спрос на товар В становится недостаточным, то с новой недели опять
выпускается товар А, и т.д. С какой вероятностью предприятие будет вы-
пускать товар A через неделю? Через две недели? Какую долю времени в
целом предприятие будет выпускать товар A, и какую — товар B?
1. Будем считать, что система S (данное предприятие) находится в
состоянии S1, если выпускается товар А, и в состоянии S2 , если выпускается
товар B. Если система находится в состоянии S1 , то с вероятностью 0,5 она
останется в этом состоянии к концу недели и с вероятностью 0,5 может пе-
рейти в состояние S2. Если же система находится в состоянии S2, то выпус-
кается товар В, и с вероятностью 0,4 система может вернуться в состояние
S1, а с вероятностью 0,6 может остаться в состоянии S2. Таким образом,
матрица вероятности переходов имеет вид

~ ⎛ 0,5 0,5 ⎞⎟
P=⎜ ,
⎜ 0,4 0,6 ⎟
⎝ ⎠
а случайный процесс может быть представлен с помощью графа:

0,4
0,5 S1 S2 0,6
0,5

2. Определим распределение вероятностей состояний системы через


1 шаг (через неделю). Если в первую неделю выпускался товар А, то на-
чальный вектор вероятностей равен P (0) = (1; 0) ), а состояние системы
через неделю будет характеризоваться вектором

16
⎛ 0,5 0,5 ⎞
P (1) = ( P1 (1), P2 (1)) = (1; 0) ⎜ ⎟ = (0, 5; 0, 5) .
⎜ 0,4 0,6 ⎟
⎝ ⎠
Таким образом, через неделю предприятие будет выпускать товар A с ве-
роятностью 0,5.
3. Определим распределение вероятностей через 2 шага (по истече-
нии двух недель).
⎛ 0,5 0,5 ⎞
P (2) = ( P1 (2), P2 (2)) = (0, 5; 0, 5) ⎜ ⎟ = (0, 45; 0, 55) .
⎜ 0,4 0,6 ⎟
⎝ ⎠
Таким образом, через 2 недели предприятие будет выпускать товар A с ве-
роятностью 0,45.
4. Для определения стационарного распределения вероятностей со-
ставим систему
⎧ ⎡⎛ 0,5 0,5 ⎞ ⎛ 1 0 ⎞⎤
⎪⎪( P1 , P2 ) ⎢⎜ ⎟−⎜ ⎟⎥ = 0,
⎨ ⎢⎣⎝ 0,4 0,6 ⎠ ⎝ 0 1 ⎟⎠⎥⎦
⎜ ⎟ ⎜

⎪⎩ P1 + P2 = 1.

В результате преобразований получим систему линейных уравнений:


⎧− 0, 5P1 + 0, 4 P2 = 0,

⎨ 0, 5P1 − 0, 4 P2 = 0,
⎪ P1 + P2 = 1.

Заметив, что первые два уравнения системы линейно зависимы, можно от-
бросить одно из этих уравнений. В итоге получим: P1=4/9; P2=5/9. Это оз-
начает, что предприятие примерно 44,4% времени будет выпускать товар
А, остальное время — товар B.

2. Марковский процесс с дискретными состояниями


и непрерывным временем

2.1. Матрица интенсивностей

Перейдём к процессам, в которых изменения состояний системы мо-


гут происходить в любые моменты времени. В этой ситуации говорят о
случайном процессе с непрерывным временем. Очевидно, описание такого
процесса в терминах вероятностей перехода за определённое количество
шагов, как это делается для процесса с дискретным временем, уже не го-

17
дится. Действительно, в этом случае говорить о вероятности перехода
системы из одного состояния в другое в любой определённый момент
времени бессмысленно (она равна нулю, подобно вероятности любого
значения непрерывной случайной величины). Можно говорить только о
вероятности перехода за промежуток времени ∆t (подразумевается,
что за малый промежуток изменение не может произойти более 1
раза).

Итак, рассмотрим систему с дискретными состояниями и непрерыв-


ным временем. Пусть в момент t система находилась в состоянии S i . Ве-
роятность перехода системы в состояние S j в течение промежутка време-
ни ∆t , отсчитывая с момента t , обозначим через Pij (t + ∆t ) :

Pij (t + ∆t ) = P ( S (t + ∆t ) = S j S (t ) = S i ) . (2.1)

В таком случае обозначение Pij (t ) будет соответствовать вероятности пе-


рехода в течение нулевого промежутка времени или, иначе говоря, вероят-
ности того, что система одновременно (в момент t ) находится и в состоя-
нии S i , и в состоянии S j . Легко понять, что

⎧0, i ≠ j ,
Pij (t ) = P ( S (t ) = S j S (t ) = S i ) = ⎨ (2.2)
⎩1, i = j.
Плотностью вероятности перехода системы из состояния S i в со-
стояние S j (или интенсивностью перехода) называется величина

Pij (t + ∆t ) − Pij (t )
λij (t ) = lim = Pij′ (t ) . (2.3)
∆t → 0 ∆t
Используя выражение (2.2) для Pij (t ) , получаем:

⎧ Pij (t + ∆t )
lim
⎪⎪∆t →0 ≥ 0, i ≠ j,
∆t
λij (t ) = ⎨ (2.4)
⎪ lim Pii (t + ∆t ) − 1 ≤ 0, i = j.
⎪⎩∆t →0 ∆t
Тот факт, что интенсивность перехода может быть величиной как
положительной, так и отрицательной, требует объяснения. Поскольку ин-
тенсивность можно рассматривать как производную от вероятности
перехода, её знак показывает направление изменения вероятности
этого перехода с ростом времени. Вероятность перехода в иное состоя-

18
ние, естественно, растёт. Вероятность же остаться в том же состоянии
со временем падает.

Из формулы 2.4 вытекает следующий важный вывод. Если ∆t мало,


то Pij (t + ∆t ) ≈ λij ∆t при i ≠ j . При совпадении начального и конечного
состояний перехода Pii (t + ∆t ) ≈ 1 + λii ∆t .

Если λij не зависит от момента времени t , с которого начался про-


межуток времени ∆t , то процесс называется однородным (аналогичное оп-
ределение было в п. 1.2 и для процесса с дискретным временем). Далее мы
будем рассматривать именно однородные процессы. В этом случае можно
пользоваться так называемой матрицей интенсивностей.

Матрицей интенсивностей называется матрица вида

⎛ λ11 λ12 ... λ1k ⎞


⎜ ⎟
⎜λ λ 22 ... λ 2 k ⎟
Λ = ⎜ 21
... ... ... ... ⎟
⎜⎜ ⎟
⎝ λk1 λk 2 ... λ kk ⎟⎠

(аналог матрицы переходных вероятностей). Рассмотрим её свойства.

Как мы уже показали (формула 2.4), диагональные элементы этой


матрицы неположительны, остальные элементы – неотрицательны: λij ≤ 0
при i = j ; λij ≥ 0 при i ≠ j . Можно доказать ещё одно свойство этой мат-
рицы: сумма элементов каждой строки равна нулю, т.е.
k
∑ λij = 0, i = 1, k . (2.5)
j =1

Действительно, строка i в матрице интенсивностей отвечает за переходы


из состояния S i во все возможные состояния, включая и S i . Сумма вероят-
ностей таких переходов за некоторый промежуток времени ∆t равна 1:
Рi1 (t + ∆t ) + Рi 2 (t + ∆t ) + K + Рii (t + ∆t ) + K + Рik (t + ∆t ) = 1 .

Переходя от вероятностей к интенсивностям, получаем:


λi1∆t + λi 2 ∆t + K + (1 + λii ∆t ) + K + λik ∆t = 1
или
(λi1 + λi 2 + K + λii + K + λik )∆t = 0 .

19
Учитывая, что ∆t ≠ 0 , приходим к требуемому равенству.

Пример 1. По матрице интенсивностей


⎛− 3 1 2⎞
⎜ ⎟
Λ =⎜ 0 −2 2 ⎟
⎜ 1 0 − 1⎟⎠

построить размеченный граф состояний.
Рассматривая первую строку матрицы интен-
1 S2 сивностей, приходим к выводу, что из состояния S1
S1 возможны переходы в состояние S 2 (с интенсивно-
2 2
стью 1) и в состояние S 3 (с интенсивностью 2); из со-
1 S3 стояния S 2 возможен только переход в состояние S 3
(с интенсивностью 2), а из состояния S 3 — переход в
Рис. 3 S1 (с интенсивностью 1). Эти рассуждения приводят
нас к графу, изображённому на рис. 3.

Аналогичным образом можно по размеченному графу состояний за-


писать матрицу интенсивностей. Например, по графу, изображённому на
рис.3, сначала определяем недиагональные элементы матрицы. Поскольку
переходы из S 2 в S 1 , а также из S 3 в S 2 невозможны, соответствующие
элементы матрицы интенсивностей считаем равными нулю. Затем опреде-
ляем диагональные элементы из требования, чтобы сумма элементов в ка-
ждой строке матрицы была равна нулю. Естественно, эти элементы оказы-
ваются отрицательными. Таким образом, приходим к исходной матрице.

2.2. Системы уравнений Колмогорова

Система уравнений Колмогорова — это система дифференциальных


уравнений, описывающих динамику распределения вероятностей состоя-
ний для марковского процесса с непрерывным временем. Продолжая при-
мер 1, покажем, как может быть получена такая система уравнений. Пусть
P1 (t ) , P2 (t ) , P3 (t ) – вероятности того, что в момент времени t система бу-
дет находиться в состояниях S1 , S 2 , и S 3 соответственно. Тогда вероят-
ность того, в момент t + ∆t система окажется в состоянии S1 следует оп-
ределять по формуле полной вероятности с учётом того, что это может
произойти либо в результате перехода из других состояний, либо в резуль-
тате того, что система, находясь в состоянии S1 , в этом состоянии и оста-
лась:

20
3
P1 (t + ∆t ) = ∑ Pi (t ) Pi1 (t + ∆t ) = P1 (t )[1 + λ11∆t ] + P3 (t )λ31∆t ,
i =1

т.к. λ21 = 0 . Отсюда

P1 (t + ∆t ) − P1 (t ) = −3P1 (t ) ∆t + P3 (t ) ∆t .

Деля на ∆t и переходя к пределу при ∆t → 0 , получим


P1′(t ) = −3P1 (t ) + P3 (t ) .

Аналогично можно получить:


P2′(t ) = P1 (t ) − 2 P2 (t ) ;

P3′(t ) = 2 P1 (t ) + 2 P2 (t ) − P3 (t ) .

Итак, получилась система дифференциальных уравнений Колмогорова


⎧ P1′(t ) = −3P1 (t ) + P3 (t ),

⎨ P2′ (t ) = P1 (t ) − 2 P2 (t ),

⎩ P3′(t ) = 2 P1 (t ) + 2 P2 (t ) − P3 (t ),
которую следует решать с заданными начальными условиями. Например,
если при t = 0 система находилась в состоянии S1 , то начальные условия
будут таковы:
P1 (0) = 1, P2 (0) = 0, P3 (0) = 0 .

Как мы убедимся в дальнейшем, в системе уравнений Колмогорова


всегда одно уравнение являются линейной комбинацией остальных. По-
этому система должна быть дополнена условием нормировки ∑ Pi (t ) = 1
i
для любого t .
Обратим внимание на то, что правые части уравнений системы Кол-
могорова являются произведениями вектора распределения вероятностей
на соответствующие столбцы матрицы интенсивностей. Это позволяет за-
писать систему Колмогорова в удобном матричном виде:
P ′(t ) = P (t ) Λ , (2.6)
где
P ′(t ) = (P1′(t ) P2′(t ) P3′(t ) ), P (t ) = (P1 (t ) P2 (t ) P3 (t ) ) .

21
2.3. Предельный стационарный режим

Понятие стационарного распределения вероятностей состояний сис-


темы было введено нами при рассмотрении марковского процесса с дис-
кретным временем. В принципе, если не пользоваться понятием шага, это
определение остаётся неизменным и при переходе к системам с непрерыв-
ным временем: распределение вероятностей системы (P1 , ... , Pk ) , кото-
рое не меняется со временем, называется стационарным. Понятно, что ус-
ловие стационарности имеет вид
Pi′(t ) = 0, i = 1, k , (2.7)

или (в матричном виде)


P st Λ = 0 , (2.8)
где P st = ( P1 , P2 , ..., Pk ) .

В предыдущем пункте мы продолжили пример 1 и получили систему


дифференциальных уравнений Колмогорова. Теперь найдём стационарное
распределение вероятностей, добавив в систему условие нормировки веро-
ятности (1.12):
⎧− 3P1 + P3 = 0,

⎪ P1 − 2 P2 = 0,

⎪2 P1 + 2 P2 − P3 = 0,

⎩ P1 + P2 + P3 = 1.
3-е уравнение является комбинацией двух первых, исключаем его. Решая
систему, получаем единственное решение
2 1 2
P1 = , P2 = P3 = .
9 9 3
Для эргодического процесса (пункт 1.6) стационарное распределе-
ние вероятностей есть предельное распределение вероятностей при
неограниченном возрастании времени:
Pi = lim Pi (t ), i = 1, 2, ..., k .
t →∞

Условие протекания такого процесса в системе, как уже говорилось в


п. 1.6, следующее: все существенные состояния системы должны быть со-
общающимися. Действительно, в примере 1 все состояния являются суще-
ственными и сообщающимися. Поэтому в системе протекает эргодический

22
процесс с полученным выше предельным распределением вероятностей
состояний.

2.4. Процесс гибели и размножения

Процессом гибели и размножения называется процесс со следующим


графом состояний:

λ0 λ1 λi −2 λi −1 λi λ k −2 λ k −1
S0 S1 S i −1 Si S k −1 Sk
µ1 µ2 µ i −1 µi µ i +1 µ k −1 µk
Здесь через λ и µ обозначены интенсивности переходов (для процесса с
дискретным временем вместо интенсивностей ставятся вероятности пере-
ходов). Поскольку все состояния сообщающиеся, будет существовать пре-
дельное стационарное распределение вероятностей состояний. Возникно-
вение такого графа и происхождение его названия будет рассмотрено ни-
же.
Матрица интенсивностей для процесса гибели и размножения:

⎛ − λ0 λ0 0 0 ... 0 0 0 ⎞
⎜ ⎟
⎜ µ1 − ( µ1 + λ1 ) λ1 0 ... 0 0 0 ⎟
Λ = ⎜ ... ... ... ... ... ... ... ... ⎟
⎜ ⎟
⎜ 0 0 0 0 ... µk −1 − ( µk −1 + λk −1 ) λk −1 ⎟
⎜ 0 0 0 0 ... 0 µk − µk ⎟⎠

Составим систему уравнений Колмогорова, приравняв правые части к ну-
лю:
P0′(t ) = − λ0 P0 + µ1 P1 = 0 ⇒ λ0 P0 = µ1 P1 ;

P1′(t ) = λ0 P0 − ( µ1 + λ1 ) P1 + µ2 P2 =
= −λ1P1 + µ2 P2 = 0 ⇒

⇒ λ1 p1 = µ2 p2 ,

Замечаем закономерность
λi −1 Pi −1 = µ i Pi , i = 1, k .
Добавляем условие нормировки вероятности и получаем систему
уравнений

23
⎧λ0 P0 = µ1P1 ,

⎪λ1P1 = µ2 P2 ,

⎪...

⎨λi −1Pi −1 = µi Pi ,

⎪...

⎪λk −1Pk −1 = µk Pk ,
⎪ P + P + ... + P = 1.
⎩ 0 1 k

Решая систему, получаем:


λ0 λλ λ λ ...λ λ λ ...λ
P1 = P0 , P2 = 0 1 P0 , ..., Pi = 0 1 i −1 P0 , ..., Pk = 0 1 k −1 P0 ,
µ1 µ1µ 2 µ1µ 2 ...µ i µ1µ 2 ...µ k
или
λi −1
Pi = P , i = 1, k , (2.9)
µi i − 1
λ0 λλ λ λ ...λ λ λ ...λ
P0 + P0 + 0 1 P0 + ... 0 1 i −1 P0 + ... 0 1 k −1 P0 = 1 .
µ1 µ1µ2 µ1µ2 ...µi µ1µ2 ...µk
Из последнего уравнения
−1
⎛ λ λλ λ λ ...λ λ λ ...λ ⎞
P0 = ⎜⎜1 + 0 + 0 1 + ... 0 1 i −1 + ... 0 1 k −1 ⎟⎟ , (2.10)
⎝ µ1 µ1µ 2 µ1µ 2 ...µ i µ1µ 2 ...µ k ⎠
а предыдущие k выражений (2.9) позволяют рассчитать все остальные ве-
роятности состояний системы через найденную вероятность P0 .
Для записи формул (2.9) и (2.10) непосредственно по графу состоя-
ний можно сформулировать следующее правило. Предельная вероятность
Pi представляет собой произведение P0 на дробь, в числителе которой сто-
ит произведение интенсивностей на верхних стрелках, а в знаменателе –
произведение интенсивностей на нижних стрелках левее i -го состояния. В
свою очередь сама вероятность P0 есть величина, обратная сумме этих же
дробей (для i = 1, k ).
Полученные формулы находят широкое применение в теории систем
массового обслуживания.

24
3. Системы массового обслуживания (СМО).
Замкнутая марковская СМО без отказов и без ожидания

3.1. Понятие систем массового обслуживания

Системами массового обслуживания называются системы, удовле-


творяющие массовый спрос в форме так называемых заявок, поступающих
в случайные моменты времени и образующих входящий поток заявок. Об-
служенные заявки образуют выходящий поток обслуженных заявок. При-
меры СМО: телефонные станции, ремонтные мастерские, билетные кассы,
магазины и т.д.
Устройство, обслуживающее заявку, называется каналом обслужи-
вания. СМО может быть одноканальной или многоканальной. Примеры ка-
налов: линии связи, лифты, продавцы и т.д.
Если характеристики потока заявок не зависят от того, в каком со-
стоянии находится сама СМО (сколько каналов занято), то СМО называет-
ся открытой. Если это требование не выполнено, то СМО называется
замкнутой.
Если заявка, поступившая в момент занятости СМО, покидает её без
обслуживания, то СМО называется СМО с отказами. Если же заявка ожи-
дает освобождения канала обслуживания, то это СМО с очередью (с ожи-
данием).

Процесс работы СМО представляет собой случайный процесс с дис-


кретными состояниями и непрерывным временем. Состояние СМО меня-
ется скачком в моменты: появления заявок, окончания обслуживания, вы-
хода из очереди неудовлетворённых заявок. Для простоты математическо-
го описания СМО желательно, чтобы случайный процесс был марковским.
Для этого, в свою очередь, требуется, чтобы входящий поток заявок и вы-
ходящий поток обслуженных заявок были простейшими.

3.2. Простейший поток и его свойства

Рассмотрим поток заявок как последовательность моментов их по-


ступления: t0 , t1 ,..., ti ,... ( t 0 – начальный момент). Поток заявок называется
простейшим, если он удовлетворяет следующим трём условиям.
1. Отсутствие последействия. Заявки поступают независимо друг от
друга; поступление заявки никак не сказывается на поступлении
других заявок.
2. Стационарность. Вероятность поступления заявки за время ∆t зави-
сит только от самой величины ∆t , но не зависит от времени начала
этого интервала. В этом случае можно говорить о среднем числе зая-
вок в единицу времени.

25
3. Ординарность. Одновременное поступление двух и более заявок ма-
ловероятно.

Математическое ожидание (среднее число) λ числа заявок, посту-


пающих в единицу времени, называется интенсивностью потока заявок.
При заданной интенсивности λ можно найти вероятность того, что в тече-
ние промежутка времени (0, t ) поступит ровно k заявок. Действительно,
математическое ожидание числа заявок за весь промежуток времени равно
λ t . Искомая вероятность подчиняется закону Пуассона

( λ t ) k e − λt
Pt ( k ) = . (3.1)
k!
Простейший поток также называют пуассоновским потоком.

Пример 1. На телефонную станцию поступает в среднем 2 вызова в


секунду. Чему равна вероятность того, что за 5 секунд поступит ровно 10
вызовов?
Здесь λ = 2, λt = 10, k = 10 . Искомая вероятность равна

1010 e −10
Pt ( k ) = ≈ 0,1251 .
10!

Рассмотрим случайную величину T – интервал времени между по-


ступлениями двух последовательных заявок. Функция распределения этой
случайной величины может быть найдена как вероятность того, что на
промежутке времени (0, t ) поступила хотя бы одна заявка:

F (t ) = P (T < t ) = 1 − Pt (0) = 1 − e − λt

(при t > 0 ). Тогда плотность распределения вероятностей равна

f (t ) = F ′(t ) = λe − λt
(при t > 0 ). Итак, получен показательный закон распределения времени
между поступлениями заявок, числовые характеристики которого (матема-
тическое ожидание, дисперсия, среднеквадратическое отклонение), как из-
вестно, определены формулами
1 1 1
M (T ) = , D (T ) = , σ (T ) = . (3.2)
λ λ2 λ

26
3.3. Марковская система массового обслуживания

Будем считать, что выходящий поток обслуженных заявок, как и


входящий поток заявок, является простейшим. Это означает, что случай-
ное время обслуживания Tобсл также подчиняется показательному закону с
плотностью распределения вероятностей

g (t ) = µe − µt ,
1
где µ = – интенсивность выходящего потока обслуженных зая-
M (Tобсл )
вок. Если это так, то, как уже говорилось выше, в СМО имеет место мар-
ковский процесс. При этом в качестве интенсивностей переходов можно
брать величины λ и µ .

В этом и следующем пунктах мы рассмотрим простейшую замкну-


тую СМО без отказов и ожидания. В такой системе заявки начинают об-
служиваться незамедлительно. Количество заявок, поступивших на обслу-
живание, ограничено некоторым постоянным числом. При этом поток зая-
вок тем меньше (а поток обслуживания тем больше), чем больше заявок
находится на обслуживании. Примером такой СМО является, например,
ремонтная мастерская, обслуживающая постоянную, приписанную к ней
совокупность устройств. Легко понять, что если, например, большое число
устройств выйдет из строя и будет находиться на обслуживании, то поток
заявок снизится, а поток обслуживания, наоборот, повысится. В этом и
проявляется «замкнутость» данной СМО. Подчеркнём: мы предполагаем,
что время обслуживания каждой заявки не зависит от того, сколько заявок
находится на обслуживании.

Пример 2. (Малышева И.А., 1988). Автоматизированная система


управления (АСУ) продажей ж/д билетов состоит из двух параллельно ра-
ботающих компьютеров. При выходе из строя одного из компьютеров
АСУ продолжает нормально работать за счёт второго компьютера. При
выходе из строя двух компьютеров билеты продаются вручную. Поток по-
ломок каждого из компьютеров является простейшим. Среднее время без-
отказной работы одного компьютера равно 10 суткам. При выходе из строя
компьютер тут же начинает ремонтироваться. Время ремонта распределе-
но по показательному закону и в среднем составляет 2 суток. В начальный
момент оба компьютера исправны. Найти среднюю производительность (в
%), если при нормальной работе АСУ производительность равна 100%, а
при продаже вручную – 30%.

27
Примечание: в данном случае заявки – это поломки компьютеров.
СМО является многоканальной (возможен одновременный ремонт двух
компьютеров), без отказов, без ожидания.
СМО имеет следующие состояния: S 0 – оба компьютера исправны,
S1 – один исправен, один в ремонте, S 2 – оба в ремонте. Интенсивность
заявок на ремонт (в сутки) для каждого работающего компьютера состав-
ляет
1 1
λ= = .
M (T ) 10
Интенсивность обслуживания каждого ремонтируемого компьютера равна
1 1
µ= = (в сутки).
M (Tобсл ) 2

Составим граф состояний. Интенсивность перехода из S 0 в S1 есть


1
⋅ 2 , т.к. сломаться может любой из двух работающих компьютеров и,
10
следовательно, имеет место наложение двух простейших потоков с интен-
1
сивностью каждый. Аналогично суммарная интенсивность перехода
10
1
из S2 в S1 есть ⋅ 2 . Напротив, переходы S1 → S 2 и S1 → S0 характеризу-
2
1 1
ются интенсивностями и соответственно, поскольку в этих случаях
10 2
работает (ремонтируется) один компьютер.

λ0 = 15 λ1 = 101
S0 S1 S2
µ1 = 1
2
µ2 = 1

Итак, мы имеем дело с замкнутой СМО. Как видим, это процесс гибели и
размножения с числом состояний k = 2 (см. пункт 2.4). Теперь становится
более понятным название этого процесса. Можно сказать, что в данном
случае речь идёт о «гибели» и «размножении» компьютеров («гибели» со-
ответствуют стрелки вправо, а «размножению» — влево).

Найдём предельные вероятности по формулам (2.10), (2.9):

28
−1
⎛ λ λ λ ⎞ 25
= (1 + 52 + ) = ( 25+2510+1 ) =
1 −1 −1
P0 = ⎜⎜1 + 0 + 0 1 ⎟⎟ ;
⎝ µ1 µ1 µ 2 ⎠
25
36

λ0 2 25 10 1 10 1
P1 = P0 = ⋅ = , P2 = ⋅ = .
µ1 5 36 36 10 36 36

Проверка: P0 + P1 + P2 = 1 . Среднюю производительность в установившем-


ся режиме можно найти как 100%( P0 + P1 ) + 30% P2 = 98,06 % . Таким обра-
зом, случающиеся перебои в работе АСУ, во время которых билеты про-
даются вручную, снижают производительность АСУ менее чем на 2 про-
цента. Поэтому вряд ли экономически целесообразно повышать произво-
дительность АСУ за счёт установки третьего компьютера.

Решая пример 2, мы использовали общие формулы процесса гибели


и размножения. Однако для подобных задач, в которых
λ 0 = kλ , λ1 = (k − 1)λ , ..., λ k −1 = λ ,
µ1 = µ , µ 2 = 2 µ , ..., µ k = kµ ,
выведены и более простые формулы (см. Толстых О.Д., 1999). Если ввести
λ
ρ= , (3.3)
µ
то вероятность нулевого состояния (все устройства исправны), можно вы-
числить по формуле

P0 = (1 + ρ ) ,
−k
(3.4)

а вероятности остальных состояний — по формуле

Pi = C ki ρ i P0 (3.5)

( C ki — биномиальный коэффициент, число сочетаний из k по i , где


i = 1, k ).
1
Возвращаясь к примеру 2, получим, что ρ = и, следовательно,
5
1 25 1 25 10 1 25 1
P0 = = , P1 = 2 ⋅ ⋅ = , P2 = 1 ⋅ ⋅ = .
(1 + ρ ) 2 36 5 36 36 25 36 36

Пример 3. (Условие взято из пособия Малышевой И.А., 1988). Вход


на станцию метрополитена оборудован системой из k турникетов. При вы-

29
ходе из строя одного из турникетов остальные продолжают нормально
функционировать. Вход на станцию перекрывается, если выйдут из строя
все турникеты. Поток поломок каждого турникета — простейший, среднее
время безотказной работы одного турникета t часов. При выходе из строя
каждый турникет начинает сразу ремонтироваться. Время ремонта распре-
делено по показательному закону и в среднем составляет s часов. В на-
чальный момент все турникеты исправны. Найти среднюю пропускную
способность системы турникетов в процентах от номинальной, если с вы-
ходом из строя каждого турникета система теряет (100/k) % своей номи-
нальной пропускной способности.

СМО имеет следующие состояния: S0 – все k турникетов исправны;


S1 – один турникет в ремонте; S2 – два турникета в ремонте; … ; Sk – все
турникеты в ремонте. Интенсивность заявок на ремонт для каждого турни-
кета λ = 1 / t (в час). Интенсивность обслуживания каждого ремонтируемо-
го турникета µ = 1 / s (в час). Имеем процесс гибели и размножения, для
которого
λ 0 = kλ , λ1 = (k − 1)λ , ..., λ k −1 = λ ,
µ1 = µ , µ 2 = 2 µ , ..., µ k = kµ ,
Граф состояний составьте самостоятельно.
В данном случае, как и в примере 2, применимы формулы (3.4), (3.5).
Для определённости зададим k = 5 , t = 50, s = 1 . Тогда

λ
ρ= = 0,02 ,
µ

P0 = (1 + 0.02 ) ≈ 0.9057 ,
−5

P1 = C51 ⋅ 0,021 ⋅ P0 ≈ 0,0906 ,

P2 = C52 ⋅ 0,02 2 ⋅ P0 ≈ 0,0036 ,

P3 ≈ 7 ⋅ 10 −5 ; P4 ≈ 7 ⋅ 10 −7 ; P5 ≈ 3 ⋅ 10 −9 .

Средняя пропускная способность системы турникетов в данном случае


рассчитывается как
P0 ⋅ 100% + P1 ⋅ 80% + P2⋅ ⋅ 60% + P3 ⋅ 40% + P4 ⋅ 20%

и составляет 98,04%.

30
Ещё одно замечание касается расчёта средней пропускной способно-
сти системы турникетов (или, если говорить обобщённо, средней произво-
дительности системы нескольких однотипных устройств). Если, как в рас-
смотренной задаче, с выходом из строя каждого устройства система теряет
(100/k) % своей номинальной пропускной способности, то её средняя про-
изводительность может быть рассчитана по формуле (Толстых О.Д., 1999):
100% µ
П= = 100% .
1+ ρ λ+µ
Для условий примера 3 получаем
1s 100%
П= ⋅ 100% = ≈ 98.04% ,
1 t +1 s 1.02

что совпадает с приведённым выше результатом. Заметим, что к примеру 2


данная формула неприменима, поскольку, как было сказано в условии, при
выходе из строя одного компьютера система сохраняет стопроцентную
производительность.

4. Различные виды СМО


и показатели их эффективности

4.1. Одноканальная СМО с отказами

Как говорилось выше, если заявка, поступившая в момент занятости


СМО, покидает её без обслуживания, то данная СМО называется СМО с
отказами. Пусть такая система имеет только один канал обслуживания, а
входящий и выходящий потоки являются простейшими с интенсивностями
λ и µ соответственно. Введём показатели эффективности такой СМО. Ве-
роятность того, что заявка не будет обслужена, называется вероятностью
отказа Pотк . Вероятность обслуживания поступившей заявки Q = 1 − Pотк
называется относительной пропускной способностью СМО. Среднее чис-
ло заявок, которые СМО сможет обслужить в единицу времени, A = λQ ,
называется абсолютной пропускной способностью СМО. Эти показатели
меняются во времени, если только речь не идёт об установившемся (ста-
ционарном) режиме.

Если интенсивности входящего и выходящего потоков известны, то


можно найти относительную пропускную способность СМО в произволь-
ный момент времени, а также показатели эффективности СМО в устано-
вившемся (стационарном) режиме.

31
Рассмотрим систему с двумя состояниями:
λ S 0 — канал свободен, S1 — канал занят. Имеем
S0 S1 процесс гибели-размножения с матрицей интен-
µ сивностей
Рис.4 ⎛− λ λ ⎞
Λ=⎜ ⎟.
⎜ µ − µ ⎟⎠

Пусть P0 (t ), P1 (t ) — вероятности состояний системы в момент t . То-
гда система уравнений Колмогорова принимает вид
(P0′(t ) P1′(t ) ) = (P0 (t ) P1 (t ) )Λ

или
⎧⎪ P0′ (t ) = −λP0 (t ) + µP1 (t ),

⎪⎩ P ′(t )1 = λP0 (t ) − µP1 (t ).

Начальное условие: P0 (0) = 1, P1 (0) = 0 (СМО в начальный момент свобод-


на). К системе следует добавить уравнение
P0 (t ) + P1 (t ) = 1 ,

а одно из первых двух уравнений исключить как лишнее. Тогда


⎧⎪ P0′ (t ) = −λP0 (t ) + µP1 (t ),

⎪⎩ P1 (t ) = 1 − P0 (t ),

или
P0′ (t ) + (λ + µ ) P0 (t ) = µ .

Решаем линейное дифференциальное уравнение:


du ⎡ dv ⎤
P0 (t ) = u (t )v (t ); v + ⎢ + ( λ + µ ) v ⎥u = µ ;
dt ⎣ dt ⎦
dv dv
= −(λ + µ )v; = −(λ + µ ) dt; ln v = −(λ + µ ) dt; v = e −( λ + µ ) t .
dt v
du µ (λ + µ )t µ
= µe ( λ + µ ) t ; u = e + C; P0 (t ) = + Ce −( λ + µ ) t .
dt λ+µ λ+µ
С учётом начального условия получаем:

32
µ λ
P0 (t ) = + e −( λ + µ ) t . (4.1)
λ+µ λ+µ
Полученная величина представляет собой относительную пропускную
способность СМО в произвольный момент времени t . В установившемся
режиме ( t → ∞ ) получаем:
µ λ
P0 = , P1 = 1 − P0 = . (4.2)
λ+µ λ+µ
Отметим, что тот же результат мог быть получен и другими способами.
Мы могли в системе уравнений Колмогорова сразу обнулить левые части
уравнений (равенство производных по времени нулю соответствует ста-
ционарному режиму). Наконец, можно было бы воспользоваться предель-
ным распределением вероятностей для процесса гибели и размножения
(2.10), (2.9):
−1
⎛ λ⎞ µ λ λ
P0 = ⎜1 + ⎟ = ; P1 = P0 = .
⎝ µ⎠ λ+µ µ λ+µ
Величина
λ
ρ= (4.3)
µ
называется коэффициентом загрузки канала. Поделив полученные форму-
лы на µ , получим:

1 ρ
P0 = , P1 = . (4.4)
ρ +1 ρ +1
Таким образом, при высокой загрузке канала относительная про-
пускная способность приближается к нулю, а вероятность отказа — к
единице. Наконец, найдём абсолютную пропускную способность канала:
λ
A = λP0 = . (4.5)
ρ +1

Пример 1. Интенсивность входящего потока вызовов на данный те-


лефонный номер составляет 0,6 вызова в минуту, средняя продолжитель-
ность разговора равна 2,5 минуты. Входящий и выходящий потоки — про-
стейшие. Определить относительную и абсолютную пропускную способ-
ность данной СМО. Сравнить фактическую абсолютную пропускную спо-
собность с номинальной пропускной способностью, полученной при сле-

33
дующем допущении: разговоры следуют друг за другом без перерыва и за-
нимают строго 2,5 минуты каждый.
Итак, λ = 0,6; µ = 1 2,5 = 0,4; ρ = λ µ = 1,5 . Относительная пропу-
скная способность:
1
Q = P0 = = 0,4 .
1+ ρ
Абсолютная пропускная способность: A = λQ = 0,6 × 0,4 = 0,24 (разговора в
минуту). Номинальная пропускная способность равна µ = 0,4 (например,
10 разговоров за 25 минут), что почти вдвое выше фактической пропуск-
ной способности, которая получена с учётом случайного характера потока
звонков и случайного времени обслуживания (продолжительности разго-
вора).

4.2. Многоканальная СМО с отказами

Пусть имеется k каналов, на которые поступает простейший поток


заявок с интенсивностью λ . Заявка, поступившая в момент, когда все ка-
налы заняты, получает отказ и покидает СМО. Поток обслуживания каж-
дого канала также является простейшим и имеет интенсивность µ . Для
нахождения показателей эффективности такой СМО (многоканальной, с
отказами) рассмотрим граф её состояний
λ λ λ λ λ λ
S0 S1 S2 Si Sk
µ 2µ 3µ iµ (i + 1) µ kµ

Состояния системы нумеруются по числу заявок, находящихся в ней.


Иначе говоря, номер состояния системы совпадает с числом занятых кана-
лов. Как только приходит заявка, система переходит из текущего состоя-
ния в соседнее правое. Интенсивности этих переходов одинаковы и равны
λ (открытая СМО). Обратные переходы происходят при обслуживании
каналов. Переход S1 → S 0 происходит с интенсивностью µ . А вот переход
S 2 → S1 имеет интенсивность 2 µ , поскольку любой из двух занятых кана-
лов обслуживает заявки с интенсивностью µ (сумма двух выходящих про-
стейших потоков с интенсивностью µ даёт простейший поток с суммар-
ной интенсивностью 2 µ ). Переход S i → S i −1 имеет интенсивность iµ .

Рассмотрим предельные вероятности для процесса гибели-


размножения. Вспомним правило (п. 2.4, формулы (2.9) и (2.10)): предель-

34
ная вероятность Pi представляет собой произведение P0 на некоторую
дробь, в числителе которой стоит произведение интенсивностей на верх-
них стрелках, а в знаменателе – произведение интенсивностей на нижних
стрелках левее i -го состояния. Таким образом,
λ λ2 λi λk
P1 = P0 ; P2 = P0 ; ... Pi = P0 ; ... Pk = P0 .
µ 2µ 2 i! µ i k! µ k
В свою очередь сама вероятность P0 находится из условия норми-
ровки ∑ Pi = 1 , что даёт выражение
i
−1
⎛ λ λ2 λ3 λi λk ⎞
P0 = ⎜⎜1 + + 2 + + ... + + ... + ⎟ .
k ⎟
⎝ µ 2 µ 2 ⋅ 3µ 3
2 ⋅ 3 ⋅ ... ⋅ iµ i
k ! µ ⎠
Если теперь воспользоваться понятием коэффициента загрузки канала ρ
(формула (4.3)), то окончательно получим:
−1
⎛ ρ2 ρ3 ρi ρk ⎞
P0 = ⎜⎜1 + ρ + + + ... + + ... + ⎟⎟ , (4.6)
⎝ 2! 3! i! k ! ⎠
ρ2 ρi ρk
P1 = ρP0 ; P2 = P0 ; ... Pi = P0 ; ... Pk = P0 . (4.7)
2! i! k!
Эти формулы носят имя Эрланга — датского учёного, основателя теории
массового обслуживания, выполнявшего свои исследования в связи с прак-
тическими нуждами телефонии в начале 20 века.

Итак, вероятность отказа:


ρk
Pотк = Pk = P0 . (4.8)
k!
Относительная пропускная способность:
ρk
Q = 1 − Pотк =1− P0 . (4.9)
k!
Абсолютная пропускная способность:
⎛ ρk ⎞
A = λQ = λ ⎜⎜1 − P0 ⎟⎟. (4.10)
⎝ k ! ⎠

35
Рассмотрим ещё одну характеристику: среднее число занятых кана-
лов k . Эту величину можно было бы найти непосредственно как матема-
тическое ожидание дискретной случайной величины с распределением

X 0 1 … k
P P0 P1 … Pk

где вероятности определяются формулами Эрланга. Однако есть более


простой способ:
A
k= ,
µ
где числитель соответствует числу заявок, обслуживаемых в единицу вре-
мени всей системой, а знаменатель — одним каналом. Получаем
⎛ ρk ⎞
k = ρ ⎜⎜1 − P0 ⎟⎟. (4.11)
⎝ k ! ⎠
Пример 2. Имеется станция с тремя линиями связи; интенсивность
потока заявок равна 1,5 заявки в минуту, среднее время обслуживания од-
ной заявки составляет 2 мин. Все потоки событий — простейшие. Найти
характеристики эффективности СМО. Сколько линий связи необходимо
иметь, чтобы вероятность отказа не превышала 0,25?
1 λ
Итак, λ = 1,5; µ = . Находим ρ = = 3 . Используя формулы (4.6 –
2 µ
4.11), получим:
−1 −1
⎛ ρ2 ρ3 ⎞ ⎛ 9 27 ⎞
P0 = ⎜⎜1 + ρ + + ⎟
⎟ = ⎜1 + 3 + + ⎟ =
⎝ 2! 3! ⎠ ⎝ 2 6 ⎠
−1 −1
⎛ 6 + 18 + 27 + 27 ⎞ ⎛ 78 ⎞ 1
=⎜ ⎟ =⎜ ⎟ = ;
⎝ 6 ⎠ ⎝ 6⎠ 13
3 9 27 9
P1 = , P2 = , P3 = = ;
13 26 6 ⋅ 16 26
9
Pîòê = ≈ 0,346 ; Q = 1 − Pîòê ≈ 0,654 ;
26
0,981
A ≈ 1.5 × 0,654 = 0,981 ; k ≈ ≈ 1,96 .
0,5

36
Система работает достаточно напряжённо, в среднем заняты два канала из
трёх и более трети заявок остаются необслуженными. Условие Pотк ≤ 0,25
не выполнено, следовательно, число каналов должно быть увеличено. (Ес-
ли бы это условие оказалось выполненным, следовало бы изучить возмож-
ность уменьшения числа каналов).
Пусть число линий связи равно 4. Тогда
−1 −1
⎛ ρ2 ρ3 ρ4 ⎞
⎟⎟ = ⎛⎜1 + 3 + + + ⎞⎟ =
9 27 81
P0 = ⎜⎜1 + ρ + + +
⎝ 2! 3! 4! ⎠ ⎝ 2 6 24 ⎠
−1 −1
⎛ 24 + 72 + 108 + 108 + 81 ⎞ ⎛ 393 ⎞ 8
=⎜ ⎟ =⎜ ⎟ = ;
⎝ 24 ⎠ ⎝ 24 ⎠ 131
24 9 ⋅8 36 27 ⋅ 8 36 81 ⋅ 8 27
P1 = , P2 = = , P3 = = , P4 = = .
131 2 ⋅ 131 131 6 ⋅ 131 131 24 ⋅ 131 131
27
Pотк = ≈ 0,2061 .
131
Теперь условие Pотк ≤ 0,25 выполнено, следовательно, необходимо 4 линии
связи. Самостоятельно рассчитайте, какими в этом случае окажутся отно-
сительная и абсолютная пропускная способности СМО, а также среднее
число занятых каналов.

4.3. Одноканальная СМО с неограниченной очередью

Довольно часто СМО функционирует таким образом, что заявка,


пришедшая в момент занятости системы, становится в очередь. Будем счи-
тать, что на очередь не наложено никаких ограничений (ни по длине оче-
реди, ни по времени ожидания). Показатели эффективности такой СМО
(одноканальной, с неограниченной очередью):
• среднее число заявок в системе N сист ;
• среднее время пребывания заявки в системе Tсист ;
• среднее число заявок в очереди N оч ;
• среднее время пребывания заявки в очереди Tоч ;
• вероятность того, что канал занят (степень загрузки канала) Pзан .
Справедливы следующие формулы Литтла, связывающие между
собой первые четыре из перечисленных характеристик:
1 1
Tсист = N сист , Tоч = N оч , (4.12)
λ λ
где λ — интенсивность потока заявок.

37
Для расчёта характеристик эффективности СМО с ожиданием необ-
ходимо решить вопрос о распределении вероятностей состояний СМО в
установившемся режиме. Пусть в одноканальную СМО с неограниченной
очередью поступает простейший поток заявок с интенсивностью λ . Поток
обслуживания также является простейшим и имеет интенсивность µ . Пер-
вый вопрос, который возникает при анализе такой СМО: что считать её со-
стояниями? Очевидно, различные состояния такой системы должны соот-
ветствовать разному числу заявок, находящихся в системе. Всегда ли су-
ществуют предельные вероятности состояний? По-видимому, не всегда.
Ясно, что если система перегружена и не справляется с обслуживани-
ем, то при t → ∞ очередь будет неограниченно возрастать и никакого
предельного распределения вероятностей не получится.
Попробуем в этом убедиться. Рассмотрим граф состояний СМО

λ λ λ λ λ
S0 S1 S2 Si
µ µ µ µ µ
Номер состояния системы совпадает с числом заявок, находящихся в
системе: S 0 — канал свободен и простаивает; S1 — обслуживается заявка,
очереди нет; S 2 — одна заявка обслуживается и одна стоит в очереди …
S i — одна заявка обслуживается и i − 1 заявок стоят в очереди. Как только
приходит заявка, система переходит из текущего состояния в соседнее
правое состояние. Интенсивности этих переходов одинаковы и равны λ .
Обратные переходы происходят при обслуживании заявок. Это схема ги-
бели и размножения, но с бесконечным числом состояний. Попытаемся
найти предельное распределение вероятностей для процесса гибели и раз-
множения (4.6):
−1
⎛ λ λ2 λi ⎞
P0 = ⎜⎜1 + + 2 + ... i + ... ⎟⎟
µ µ µ
(
= 1 + ρ + ρ 2 ... + ρ i + ... )
−1
,
⎝ ⎠
где ρ – коэффициент загрузки (величина неотрицательная). В скобках —
геометрическая прогрессия, сходящаяся лишь при 0 < ρ < 1 . Таким обра-
зом, при ρ ≥ 1 система оказывается перегруженной. Но допустим, что ус-
ловие ρ < 1 выполнено. Тогда, учитывая формулу для суммы бесконечно
убывающей геометрической прогрессии, получим:
−1
⎛ 1 ⎞
P0 = ⎜ ⎟ = 1− ρ ; (4.13)
⎝ 1 − ρ ⎠

P1 = ρP0 ; P2 = ρ 2 P0 ; ... Pi = ρ i P0 ; ... , (4.14)

38
то есть
P1 = ρ (1 − ρ ); P2 = ρ 2 (1 − ρ ); ... Pi = ρ i (1 − ρ ); ... (4.15)

Итак, если СМО не перегружена и справляется с потоком заявок


( ρ < 1), то предельное распределение вероятностей представляет со-
бой бесконечно убывающую геометрическую прогрессию со знаменате-
лем ρ ; самую высокую вероятность имеет состояние, когда нет ни
одной заявки.

Приступим к получению формул для показателей эффективности


одноканальной СМО с неограниченной очередью. Среднее число заявок в
системе является математическим ожиданием случайной величины, рас-
пределение которой было только что найдено:
∞ ∞
N сист = ∑ ipi = ∑ iρi (1 − ρ) =
i =1 i =1
∞ ∞ dρi d ∞ i
= ρ(1 − ρ)∑ iρ i −1
= ρ(1 − ρ)∑ = ρ(1 − ρ) ∑ ρ = (4.16)
i =1 i =1 dρ dρ i =1
d ⎛ ρ ⎞ (1 − ρ + ρ) ρ
= ρ(1 − ρ) ⎜ ⎟ = ρ(1 − ρ) = .
dρ ⎝ 1 − ρ ⎠ (1 − ρ) 2
1− ρ

Среднее время пребывания заявки в системе находим по формуле


Литтла:
ρ
Tсист = . (4.17)
λ(1 − ρ)
Среднее число заявок в очереди равно среднему число заявок в сис-
теме минус среднее число обслуживаемых заявок. Но число обслуживае-
мых заявок — это случайная величина с распределением

X 0 1
P p0 = 1 − ρ 1 − p0 = ρ

Математическое ожидание этой случайной величины (кстати, это и есть


Pçàí ) равно ρ , поэтому

ρ ρ − ρ + ρ2 ρ2
N оч = N сист −ρ = −ρ = = . (4.18)
1− ρ 1− ρ 1− ρ
Среднее время пребывания заявки в очереди находим по формуле
Литтла (4.12):

39
ρ2
Tоч = . (4.19)
λ(1 − ρ)
Замечание. Рассматривая СМО с неограниченной очередью, мы ни разу не
упомянули характеристики эффективности, использованные нами ранее:
вероятность отказа, относительная и пропускная способность. Это связано
с тем, что в СМО с неограниченной очередью любая заявка рано или
поздно будет обслужена, если только выполнено условие ρ < 1. Поэто-
му для предельного установившегося режима Pотк = 0, Q = 1, A = λ .

Пример 3. На заправку с одной колонкой поступает простейший по-


ток автомобилей с интенсивностью 10 машин в час. Среднее время за-
правки одного автомобиля — 4 минуты. Найти показатели эффективности
СМО.
Интенсивность потока обслуживания равна
60
µ= = 15
4
автомобилей в час. Коэффициент загрузки заправочной станции
λ 10 2
ρ= = = .
µ 15 3
Одновременно эта величина является вероятностью наличия очереди Pзан .
Далее используем формулы (4.16 – 4.19). Среднее число автомоби-
лей на заправке
ρ
N сист = = 2.
1− ρ
Среднее время пребывания автомобиля на заправке
ρ
Tсист = = 0,2 часа = 12 минут.
λ(1 − ρ)
Среднее число автомобилей в очереди
ρ2 4
N оч = = .
1− ρ 3
Среднее время пребывания автомобиля в очереди в ожидании заправки

40
ρ2 2
Tоч = = часа = 8 минут.
λ(1 − ρ) 15

4.4. Многоканальная СМО с неограниченной очередью

Пусть СМО имеет k каналов, а заявки могут образовывать неогра-


ниченную очередь. Состояния системы: S 0 — все каналы свободны; S1 –
занят один канал; S 2 – заняты два канала, … S i – занято i каналов, …, S k –
заняты все k каналов, очереди нет, S k +1 – заняты все k каналов, в очереди
1 заявка, …, S k + j – заняты все k каналов, в очереди j заявок, … Предпо-
ложения о входящем и выходящем потоках остаются прежними: поступает
простейший поток заявок с интенсивностью λ ; поток обслуженных заявок
также является простейшим и имеет интенсивность µ . Граф состояний
имеет вид
λ λ λ λ λ λ λ λ λ
S0 S1 Si Sk S k +1 Sk + j
µ 2µ iµ (i +1)µ kµ kµ kµ kµ kµ

(процесс гибели и размножения). Ниже мы приведём без доказательства


характеристики такой системы, убеждаясь в том, что при k = 1 они совпа-
дают с характеристиками одноканальной системы (п. 4.3). Для получения
более подробной информации по данному вопросу воспользуйтесь, напри-
мер, пособием О.Д. Толстых (1999).

Вспомним, что в одноканальной системе с неограниченной очередью пре-


дельное распределение вероятностей возникает при ρ < 1, где ρ = λ µ –
коэффициент загрузки канала (в этом случае СМО не перегружена и
справляется с потоком заявок). В случае многоканальной системы вводит-
ся коэффициент использования системы
ρ
χ= .
k
Если очередь не ограничена, то условием установления предельного
стационарного режима является χ < 1 (при k = 1 совпадает с ρ < 1).

Предельное распределение вероятностей состояний выглядит сле-


дующим образом. Вероятность того, что все каналы свободны и система
простаивает:

41
−1
⎛ k ρi ρ k +1 ⎞
P0 = ⎜⎜ ∑ + ⎟⎟ . (4.20)
⎝ i = 0 i! k ! ( k − ρ ) ⎠
При k = 1 из (4.20) получаем
−1
⎛ ρ2 ⎞
P0 = ⎜⎜1 + ρ + ⎟⎟ = 1− ρ ,
⎝ 1 − ρ ⎠
что совпадает с формулой (4.13) для вероятности простоя одноканальной
системы с неограниченной очередью.
Вероятности состояний с номерами от 1 до k (очереди нет) опреде-
лены формулой
ρi
Pi = P0 , i = 1, k . (4.21)
i!
При k = 1 из (4.21) получаем P1 = ρP0 (4.14). Вероятности состояний с но-
мерами от k + 1 и выше вычисляются по формуле

Pk + j = χ j Pk , j = 1, 2, ... (4.22)

При k = 1 из (4.22) получаем P1+ j = ρ j P1 = ρ j +1 P0 , что также согласуется с


(4.14).
Среднее число заявок в очереди равно

χ k +1k k P0
N оч = . (4.23)
k!(1 − χ) 2
При k = 1 формула (4.23) превращается в (4.18):
ρ 2 (1 − ρ) ρ2
N оч = = .
(1 − ρ) 2 1 − ρ
Среднее число занятых каналов равно коэффициенту загрузки канала:
k=ρ . (4.24)
Среднее число заявок в системе:
N сист = k + N оч . (4.25)

Легко убедиться, что при k = 1 формула (4.25) совпадает с (4.16).


Среднее время пребывания заявки в очереди и среднее время пребы-
вания заявки в системе по-прежнему находятся по формулам Литтла (4.12).

42
Найдём вероятность занятости многоканальной СМО с неограничен-
ной очередью. Это событие, противоположное тому, что система находит-
ся в одном из состояний с номерами от 0 до k − 1 . Поэтому с учётом (4.21)
k −1 k −1 ρ i ⎛ ρ2 ρ k −1 ⎞
Pзан = 1 − ∑ Pi = 1 − ∑ P0 = 1 − P0 ⎜⎜1 + ρ + + ... + ⎟⎟ . (4.26)
i =0 i =0 i! ⎝ 2! ( k − 1)! ⎠
При k = 1 получаем Pзан = 1 − P0 = ρ . Используя (4.20) и (4.26), убедитесь
самостоятельно, что для системы с неограниченным числом каналов
(k → ∞) Pзан = 0 .

Как уже подчёркивалось в п. 4.3, в системе с неограниченной очере-


дью отказы невозможны ( Pотк = 0, Q = 1 ), а абсолютная пропускная спо-
собность в установившемся режиме совпадает с интенсивностью входяще-
го потока заявок ( A = λ ).

Пример 4. На погрузочной площадке установлено несколько погру-


зочных механизмов. В среднем в смену под погрузку подаётся 50 вагонов,
производительность каждого погрузочного механизма составляет 30 ваго-
нов в смену. Потоки событий – простейшие. Найти следующие характери-
стики погрузочной площадки как СМО с неограниченной очередью при
разном числе (2, 3, 4) каналов (погрузочных устройств): вероятность про-
стоя системы, среднее число заявок в очереди и в системе, среднее число
занятых и свободных каналов, вероятность занятости системы.
Имеем дело с открытой марковской СМО, λ = 50 , µ = 30 , ρ = 5 / 3 .
Установившийся режим существует при условии
ρ 5
χ= = < 1,
k 3k
где k – число погрузочных механизмов. Таким образом, допустимые зна-
чения k = 2, 3, 4, ...
5
Пусть k = 2 . Тогда χ = . Найдём вероятность простоя системы по
6
формуле (4.20):
−1
⎛ 5 52 533 ⎞
P0 = ⎜⎜1 + + 2 + 3 ⎟⎟ ≈ 0,0909 .
⎝ 3 2!3 2!3 ⎠

53 4 ⋅ 0,0909 ⋅ 6 2
N оч = (4.18) = ≈ 3,7879 .
63 2

43
k = ρ ≈ 1,6667 .
N сист ≈ 1,6667 + 3,7879 = 5,4545 .

Среднее число свободных каналов рассчитывается как k св = k − k ≈ 0,3333 .


Вероятность занятости системы находим по формуле (4.26):
Pзан = ( 4.21) = 1 − 0,0909 ⋅ (1 + 1,6667 ) ≈ 0,7576 .

5
Пусть k = 3 . Тогда χ = .
9
−1
⎛ 5 52 53 54 3 ⎞
P0 = ⎜⎜1 + + 2 + 3 + 4 ⎟⎟ ≈ 0,1727 .
⎝ 3 2!3 3!3 3!3 ⋅ 4 ⎠

5 4 27 ⋅ 0,1727 ⋅ 9 2
N оч ≈ ≈ 0,3747 .
946 ⋅ 42
N сист ≈ 1,6667 + 0,3747 = 2,0414 .

k св = k − k ≈ 1,3333 .

⎛ 5 52 ⎞
Pзан = 1 − 0,1727 ⋅ ⎜⎜1 + + 2 ⎟⎟ ≈ 0,2998 .
⎝ 3 3 2⎠
5
Пусть k = 4 . Тогда χ = .
12
−1
⎛ 5 52 53 54 55 3 ⎞
P0 = ⎜⎜1 + + 2 + 3 + 4 + 5 ⎟⎟ ≈ 0,1859 .
⎝ 3 2!3 3!3 4!3 4!3 ⋅ 7 ⎠

55 256 ⋅ 0,1859 ⋅ 12 2
N оч ≈ ≈ 0,0732 .
125 24 ⋅ 7 2
N сист ≈ 1,6667 + 0,0732 = 1,7399 .

k св = k − k ≈ 2,3333 .

⎛ 5 52 53 ⎞
Pзан = 1 − 0,1859 ⋅ ⎜⎜1 + + 2 + 3 ⎟⎟ ≈ 0,1025 .
⎝ 3 3 2 3 6⎠
Полученные показатели могут быть использованы лицом, прини-
мающим решение, с учётом конкретных требований и обстоятельств. Бо-
лее подробно об этом можно прочесть в п. 4.5 (пример 5 является продол-
жением примера 4).

44
Завершая разговор о разновидностях СМО, отметим, что некоторые
из них остались за пределами нашего рассмотрения: СМО с ограниченной
очередью, СМО с ограниченным временем ожидания, немарковские СМО
и т.д. С ними можно ознакомиться по литературе, указанной в библиогра-
фическом списке.

4.5. Понятие оптимизации СМО

Задачи теории массового обслуживания можно разделить на прямые


и обратные. Прямые задачи состоят в том, чтобы по заданным условиям
работы СМО (число каналов, их производительность, правила работы, ха-
рактер потока заявок) найти показатели эффективности СМО (эти показа-
тели мы достаточно подробно разбирали в данном параграфе). Обратные
задачи (они же – задачи оптимизации) ставятся так: выбрать такие значе-
ния изменяемых переменных, чтобы определённые показатели эффектив-
ности обращались в минимум (максимум) или просто достигали некоторых
требуемых значений. Изменяемыми переменными могут быть, например,
число каналов, параметры режима работы и т.д.
Оптимизацию работы СМО можно производить с разных позиций: с
позиции владельцев СМО и/или с позиции обслуживаемых клиентов. По-
казателен в этом смысле рассмотренный выше пример 4. Администрация
погрузочной площадки заинтересована в том, чтобы устройства были пре-
дельно загружены: ведь простой устройства всё равно придётся оплачи-
вать. Клиенты (владельцы вагонов) заинтересованы в минимизации очере-
дей. Фактически речь идёт о так называемой многокритериальной задаче,
в которой требуется каким-то образом совместить разные показатели эф-
фективности.

Пример 5. Сохранив условия примера 4, будем считать, что стои-


мость простоя погрузочного механизма вдвое больше стоимости простоя
вагона. Сколько погрузочных устройств нужно использовать, чтобы мини-
мизировать суммарную стоимость простоя погрузочных механизмов и ва-
гонов за некоторый интервал времени?

Для вычисления средней стоимости простоя вагонов следует среднее


число вагонов в очереди N î÷ умножить на стоимость простоя одного ваго-
на. Аналогично, для вычисления средней стоимости простоя погрузочных
устройств следует среднее число свободных погрузочных устройств k ñâ
умножить на стоимость простоя одного устройства. Интервал времени при
этом может быть произвольным. Таким образом, минимизируемая величи-
на может быть записана в виде C = C1 N оч + С2 k св , где C1 и C 2 – условные

45
стоимости простоя вагонов и погрузочных устройств соответственно. В
нашем случае можно принять C1 = 1 , C 2 = 2 .
Используем результаты, полученные при решении примера 4.
При k = 2 C = 3,7879 + 2 ⋅ 0,3333 = 4,4545 .
При k = 3 C = 0,3747 + 2 ⋅ 1,3333 = 3,0414 .
При k = 4 C = 0,0732 + 2 ⋅ 2,3333 = 4,7399 .
С дальнейшим ростом числа каналов обслуживания стоимость про-
стоя будет только возрастать. Таким образом, с точки зрения минимизации
суммарной стоимости простоя погрузочных механизмов и вагонов, опти-
мальное число погрузочных механизмов k = 3 .

Вопрос об оптимизации работы СМО может ставиться и более ши-


роко. Например, иногда возникают предложения о специализации каналов
обслуживания, т.е. фактически о переходе от одной многоканальной СМО
к нескольким специализированным СМО. Рассмотрим следующий пример.

Пример 6. Железнодорожная касса с двумя кассирами продаёт би-


леты в два пункта: A и B. Касса может работать в двух режимах:
1) оба кассира продают билеты в любой из пунктов;
2) каждый из кассиров продаёт билеты только в пункт, закреплён-
ный за данным окошком.
Интенсивность потока заявок для обоих пунктов одинакова:
λ A = λ B = 0,45 (пассажира в минуту). Кассир тратит на обслуживание в
среднем 2 минуты. Какой из названных режимов работы кассы предпочти-
телен с точки зрения уменьшения очередей?
1) В первом случае имеем двухканальную СМО с неограниченной
очередью, λ = 0,9 , µ = 0,5 , ρ = 1,8 , χ = 0,9 . Условие χ < 1 выполнены,
предельный стационарный режим существует. Найдём вероятность про-
стоя кассы по формуле (4.20):
−1
⎛ ρ2 ρ3 ⎞
P0 = ⎜⎜1 + ρ + + ⎟ = 0,0526 .
⎝ 2! 3!⋅0,2 ⎟⎠

Отсюда с учётом (4.23)


0,9 3 4 ⋅ 0,0526 ⋅
N оч = (4.18) = ≈ 7,674 .
0,01 ⋅ 2
7,674
Tоч = = 8,526 (мин.).
0,9

46
2) Во втором случае имеем две одноканальные СМО с неограничен-
ной очередью. По условию задачи они будут работать в одинаковом режи-
ме: λ = 0,45 , µ = 0,5 , ρ = 0,9 . Условие ρ < 1 выполнено, предельный ста-
ционарный режим существует. По формуле (4.18)
0,9 2
N оч = = 8,1.
0,1
По сравнению с первым вариантом длина очереди немного увеличилась.
Однако надо иметь в виду, что это уже очередь к одному кассиру, а не к
двум! Поэтому среднее время, проведённое пассажиром в очереди, должно
значительно возрасти. Действительно,
8,1
Tоч = = 18 (мин.).
0,45
Таким образом, первый вариант организации работы СМО явно предпоч-
тительнее.

5. Решение задач о случайных процессах


и системах массового обслуживания
на компьютере (в EXCEL)

При рассмотрении случайных процессов и связанных с ними СМО


мы ограничивались задачами, которые легко можно решить «вручную».
Однако при большем числе состояний процесса необходимо вести расчёты
на компьютере.

5.1. Марковские процессы с дискретным временем

Пример 1. Матрица перехода цепи Маркова имеет вид


⎛0 0 0,2 0,1 0,7 ⎞
0
⎜ ⎟
⎜ 0,1 0 0 0 0 0,9 ⎟
⎜ ⎟
⎜ 0 0,2 0,7 ⎟
~ ⎜ 0,1 0 0
⎟.
P=
⎜ 0,2 0 0,2 0,1 0 0,5 ⎟
⎜ ⎟
⎜ 0,1 0,2 0,1 0,1 0 0,5 ⎟
⎜ ⎟
⎜ 0,1 0 0,2 0,1 0,2 0,4 ⎟⎠

В начальный момент система находится в состоянии S 2 . Найти:

47
1) матрицу перехода за 2 шага;
2) распределение вероятностей по состояниям после 2-го шага;
3) стационарное распределение вероятностей по состояниям.

Введём на листе EXCEL исходные данные.

A B C D E F G H I J K L M
1
2 Матрица перехода Начальное распред.
3 0 0 0,2 0,1 0 0,7 0 1 0 0 0 0
4 0,1 0 0 0 0 0,9
5 0,1 0 0 0 0,2 0,7
6 0,2 0 0,2 0,1 0 0,5
7 0,1 0,2 0,1 0,1 0 0,5 После 1 шага
8 0,1 0 0,2 0,1 0,2 0,4
9
10

Выделим ячейки H8:M8 и вызовем функцию МУМНОЖ (Матема-


тические), умножающую матрицу на матрицу. В окно «Массив 1» введём
диапазон H3:M3, в окно «Массив 2» — диапазон A3:F8 (удобнее не наби-
рать адреса с клавиатуры, а выделять диапазоны мышкой) и щёлкнем на
OK. В левой ячейке выделенной области появится первый элемент итого-
вой таблицы. Чтобы раскрыть всю таблицу, нажмём на клавишу F2, перей-
дя в режим правки, а затем – на комбинацию клавиш
<CTRL>+<SHIFT>+<ENTER>. Появится следующий результат:

G H I J K L M
7 После 1 шага
8 0,1 0 0 0 0 0,9
9
10

Распределение вероятностей по состояниям после 1 шага совпадает


со второй строкой переходной матрицы, поскольку система находилась в
состоянии S 2 .

Найдём матрицу перехода за 2 шага. Как нам известно (формула


(1.7)),
~ ~ ~ ~
P (2) = P (1) P (1) = P 2 .
Поэтому выделим диапазон A11:F16 и введём в него функцию МУМНОЖ
для умножения матрицы перехода (A3:F8) на себя саму. Результат будет
таким:

48
A B C D E F G H I J K L M
9
10 Матрица перехода за 2 шага
11 0,11 0 0,16 0,08 0,18 0,47
12 0,09 0 0,2 0,1 0,18 0,43
13 0,09 0,04 0,18 0,1 0,14 0,45
14 0,09 0 0,16 0,08 0,14 0,53
15 0,1 0 0,14 0,07 0,12 0,57 После 2 шага
16 0,1 0,04 0,14 0,08 0,12 0,52
17
18

Найдём распределение вероятностей после 2 шага. Это можно сде-


лать двумя способами: либо умножив вектор начального распределения
~
вероятностей на P 2 , либо умножив вектор распределения вероятностей
~
после 1 шага на P . В любом случае результат будет следующим:

G H I J K L M
15 После 2 шага
16 0,09 0 0,2 0,1 0,18 0,43

Очевидно, распределение вероятностей состояний после 2 шага совпадает


~
со второй строки матрицы P 2 , поскольку изначально система находилась в
состоянии S 2 .

Переходим к отысканию стационарного распределения вероятностей


состояний. Как показано выше, для этого нужно из системы однородных
уравнений
~
P st ( P − E ) = 0 ,

где P st = ( P1 , P2 , ..., Pk ) , исключить одно (любое) уравнение, заменив его


k
условием ∑ Pi = 1. В результате система примет вид
i =1
P st A = B ,
~
где матрица A есть изменённая матрица P − E (скажем для определённо-
сти, что последний столбец заменён единицами), а B = (0, 0, ..., 0, 1) —
матрица размером 1 × k . Таким образом,

P st = BA −1 .
~
Для реализации этого алгоритма сначала получим матрицу P − E (для это-
~
го достаточно скопировать матрицу P на свободное пространство рабоче-

49
го листа и от диагональных элементов отнять 1). Затем с помощью функ-
ции МОПРЕД (Математические) можно проверить, что определитель
этой матрицы равен нулю (должен получиться либо «чистый» нуль, либо,
вследствие погрешности вычислений, число, близкое к нулю; так, в нашем
случае получилось число порядка 10 −17 ). После этого следует определить
матрицу A , заменив последний столбец предыдущей матрицы единицами.
Наконец, найдя с помощью функции МОБР (Математические) матрицу
A−1 и умножив на неё матрицу B , получим P st = ( P1 , P2 , ..., Pk ) .
A B C D E F H I J K L M
18
19 Матрица перехода минус единичная матрица
20 -1 0 0,2 0,1 0 0,7 Определитель
21 0,1 -1 0 0 0 0,9 4,623E-17
22 0,1 0 -1 0 0,2 0,7
23 0,2 0 0,2 -0,9 0 0,5
24 0,1 0,2 0,1 0,1 -1 0,5
25 0,1 0 0,2 0,1 0,2 -0,6
26
27 Матрица А
28 -1 0 0,2 0,1 0 1
29 0,1 -1 0 0 0 1
30 0,1 0 -1 0 0,2 1
31 0,2 0 0,2 -0,9 0 1
32 0,1 0,2 0,1 0,1 -1 1
33 0,1 0 0,2 0,1 0,2 1
34
35 Матрица А обратная
36 -0,909 0,029 -0,017 -0,001 0,147 0,751
37 0,007 -0,971 0,150 0,082 0,147 0,585 Матрица B
38 0,008 -0,003 -0,832 0,083 -0,015 0,758 0 0 0 0 0 1
39 -0,091 0,035 -0,021 -1,001 0,176 0,902
40 0,001 -0,162 0,094 0,007 -0,808 0,868 Стационарное распределение
0,098

0,026

0,151

0,082

0,132

0,510

41 0,098 0,026 0,151 0,082 0,132 0,510

Полученное стационарное распределение не зависит от начального состоя-


ния системы. В системе имеет место эргодический процесс. Убедитесь са-
мостоятельно, что все состояния системы являются существенными и со-
общающимися.
В установившемся режиме более половины времени система будет
находиться в состоянии S 6 .

50
Пример 2. Исследовать цепь Маркова с матрицей перехода
⎛0 0 0,3 0 0,7 ⎞
0
⎜ ⎟
⎜ 0,1 0 0 0 0 0,9 ⎟
⎜ ⎟
⎜ 0,2 0,7 ⎟
~ ⎜ 0,1 0 0 0
⎟.
P=
⎜0 0 0 0,5 0,5 0 ⎟
⎜ ⎟
⎜ 0,1 0,2 0,2 0 0 0,5 ⎟
⎜ ⎟
⎜ 0,1 0 0,3 0 0,2 0,4 ⎟⎠

Отметим сразу, что в данном случае состояние S 4 является несуществен-
ным (перейти из него в состояние S5 можно, но вернуться назад нельзя).
Применив к решению данного примера файл EXCEL, созданный для при-
мера 1, получим следующее стационарное распределение вероятностей со-
стояний:

P1 P2 P3 P4 P5 P6
0,091 0,029 0,213 0 0,147 0,520
Как отмечалось выше, предельная стационарная вероятность несуществен-
ного состояния всегда оказывается равной нулю, что мы и получили.

Пример 3. Исследовать цепь Маркова с матрицей перехода


⎛0 0 0,2 0,1 0,7 ⎞
0
⎜ ⎟
⎜0 0,5 0,5 0 0 0 ⎟
⎜ ⎟
⎜ 0,2 0,7 ⎟
~ ⎜ 0,1 0 0 0
⎟.
P=
⎜0 0 0 1 0 0 ⎟
⎜ ⎟
⎜ 0,1 0,2 0,1 0,1 0 0,5 ⎟
⎜ ⎟
⎜ 0,1 0 0,2 0,1 0,2 0,4 ⎟⎠

Обратим внимание на то, что состояние S 4 здесь является единст-
венным состоянием поглощения: попав в него, система никогда из этого
состояния не выйдет. Действительно, введя матрицу перехода в готовый
файл, получим стационарное распределение вероятностей:

P1 P2 P3 P4 P5 P6
0 0 0 1 0 0

51
Пример 4. Исследовать цепь Маркова с матрицей перехода
⎛0 0 0,2 0,1 0 0,7 ⎞
⎜ ⎟
⎜0 1 0 0 0 0 ⎟
⎜ ⎟
⎜ 0,2 0,7 ⎟
~ ⎜ 0,1 0 0 0
⎟.
P=
⎜0 0 0 1 0 0 ⎟
⎜ ⎟
⎜ 0,1 0,2 0,1 0,1 0 0,5 ⎟
⎜ ⎟
⎜ 0,1 0 0,2 0,1 0,2 0,4 ⎟⎠

Здесь, в отличие от предыдущего примера, имеется 2 состояния по-
глощения: S2 и S 4 . Введя эту матрицу в наш файл, обнаружим ошибку,
связанную с тем, что матрица A оказывается вырожденной. Очевидная
причина этой неудачи состоит в том, что в результате некоторого количе-
ства переходов система может «застрять» либо в состоянии S2 , либо в со-
стоянии S 4 . Как в этом примере, так и в примере 3, эргодический процесс
отсутствует, так как среди существенных состояний системы имеются не-
сообщающиеся.

5.2. Марковские процессы с непрерывным временем

Пример 5. Марковский процесс с непрерывным временем задан


матрицей интенсивностей
⎛− 2 0 2 ⎞
⎜ ⎟
Λ = ⎜ 6 − 8 2 ⎟.
⎜ 3 4 − 7 ⎟⎠

В начальный момент времени система находится в состоянии S1 . Требует-
ся исследовать динамику распределения вероятностей системы и получить
стационарное распределение вероятностей.

Безусловно, система уравнений Колмогорова может быть решена


аналитически, однако это непростая задача, усложняющаяся с ростом чис-
ла состояний. В данном примере решение системы уравнений Колмогоро-
ва таково (Толстых О.Д., 1999):
2 2 1 8 2 2
P1 (t ) = + e −8t − e −9t , P2 (t ) = − e −8t + e −9t , P2 (t ) = − e −9t . (5.1)
3 3 9 9 9 9
Стационарное распределение вероятностей определяется по формулам

52
Pi = lim Pi (t ), i = 1,2,3 ,
t →∞

то есть P1 = 2 / 3, P2 = 1 / 9, P3 = 2 / 9 . Мы рассмотрим здесь очень простое


численное решение, которое легко может быть реализовано в EXCEL.
Заданную матрицу интенсивностей введём в диапазон B3:D5. Ста-
ционарное распределение вероятностей по состояниям должно удовлетво-
рять матричному уравнению P st Λ = 0 , дополненному условием нормиров-
ки вероятности. Для этого нужно из системы однородных уравнений
P st Λ = 0 , где P st = ( P1 , P2 , ..., Pk ) , исключить одно (любое) уравнение, за-
менив его условием
k
∑ Pi = 1.
i =1

В результате система примет вид P st A = B , где матрица A есть изменён-


ная матрица Λ (скажем для определённости, что последний столбец заме-
нён единицами), а B = (0, 0, ..., 0, 1) — матрица размером 1 × k . Таким об-
разом, P st = BA −1 . Реализовав этот алгоритм с помощью функций МОБР и
МУМНОЖ подобно тому, как это описано в пункте 5.1, получим стацио-
нарное распределение вероятностей по состояниям, которое (в простых
дробях) выглядит как P1 = 2 / 3, P2 = 1 / 9, P3 = 2 / 9 , что совпадает с приве-
дённым выше аналитическим решением.

A B C D E F G H I J
1
2 Матрица интенсивностей Матрица А Матрица А обр
3 -2 0 2 -2 0 1 -0,16667 0,055556 0,111111
4 6 -8 2 6 -8 1 -0,04167 -0,06944 0,111111
5 3 4 -7 3 4 1 0,666667 0,111111 0,222222
6 Матрица В Стац распред. вероятностей
7 0 0 1 0,666667 0,111111 0,222222

Перейдём к численному моделированию динамики распределения


вероятностей системы. Применим аппроксимацию производных по време-
ни:
P (t + ∆t ) − Pi (t )
Pi′(t ) ≈ i , i = 1, k ,
∆t
откуда
Pi (t + ∆t ) = Pi (t ) + Pi′(t ) ∆t , i = 1, k , (5.2)

или в матричном виде P(t + ∆t ) = P (t ) + P ′(t ) ∆t .

53
Используя это равенство, при заданном начальном векторе P(0) можно
получить временной ход P(t ) с шагом ∆t . На каждом шаге для вычисле-
ния вектора производных используем равенство (2.6)
P ′(t ) = P (t ) Λ .
В ячейку C7 введём значение ∆t = 0,05. (Отметим здесь, что шаг по вре-
мени должен быть достаточно мал). В ячейку A10 введём начальное значе-
ние времени (0), а в ячейку A11 — формулу =A10+$C$7. В диапазон
B10:D10 введём начальное распределение вероятностей состояний P(0) .
Выделим диапазон E10:G10 и введём в него функцию МУМНОЖ, умно-
жающую матрицу P(0) на матрицу интенсивностей. (Напомним, что это
функция массива, и при её применении потребуется перейти в режим
правки F2, как это описано в пункте 5.1. Учтите также, что ссылки на мас-
сив матрицы интенсивностей должны быть безусловными для последую-
щего автозаполнения таблицы). В ячейки H10:J10 введём формулы (5.1),
которые будут вычислять точное решение системы Колмогорова
P1 (t ), P2 (t ), P3 (t ) .
В ячейки B11:D11 необходимо ввести формулы (5.2), которые будут
вычислять вероятности состояний на новом временном шаге через значе-
ния вероятностей и их производных с предыдущего шага. Для ячейки B11
это будет выглядеть как =B10+E10*$C$7, а к С11 и D11 можно применить
автозаполнение. Теперь выделим диапазон E10:J10 и выполним автозапол-
нение в область E11:J11. После этого остаётся лишь выделить строку
A11:J11 и выполнить автозаполнение произвольного количества строк в
направлении вниз.
A B C D E F G H I J
1
2 Матрица интенсивностей Матрица А Матрица А обр
3 -2 0 2 -2 0 1 -0,1667 0,05556 0,11111
4 6 -8 2 6 -8 1 -0,0417 -0,0694 0,11111
5 3 4 -7 3 4 1 0,66667 0,11111 0,22222
6 Матрица В Стац распред. вероятностей
7 дельта t 0,05 0 0 1 0,66667 0,11111 0,22222
8
9 t Вероятности Производные Точное решение
10 0 1 0 0 -2 0 2 1 0 0
11 0,05 0,9 0 0,1 -1,5 0,4 1,1 0,91190 0,00757 0,08053
… … … … … … … … … … …

Изучая полученные результаты, легко убедиться, что:


1) с ростом времени распределение вероятностей состояний приближа-
ется к стационарному распределению, полученному нами ранее в
ячейках H7:J7;

54
2) производные от вероятностей при этом приближаются к нулю;
3) численное (приближённое) и аналитическое (точное) решение сис-
темы уравнений Колмогорова очень хорошо совпадают.

Постройте диаграмму временного хода вероятностей состояний сис-


темы, показав приближённое решение сплошными линиями, а точное ре-
шение – пунктиром.

Вероятности
1

0,8

0,6

0,4

0,2

0
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
t
Рис. 5.

5.3. СМО без отказов и ожидания

В этом пункте мы покажем, что задачи, подобные примерам 2 и 3 из


параграфа 3, вовсе не обязательно решать по формулам, полученным для
процесса гибели-размножения. Действительно, можно применить общий
подход к задачам с непрерывным временем, описанный в пункте 5.2.
Пример 6. Решим в EXCEL пример 3 параграфа 3. Напомним, что
согласно условию, СМО имеет следующие состояния: все турникеты ис-
правны; один турникет в ремонте; два турникета в ремонте; … ; все турни-
кеты в ремонте. Интенсивность заявок на ремонт для каждого турникета
λ = 1 / t (в час). Интенсивность обслуживания каждого ремонтируемого
турникета µ = 1 / s (в час). Матрица интенсивностей для данной СМО бу-
дет иметь вид

55
⎛ − kλ kλ 0 0 ... 0 0 0 ⎞
⎜ ⎟
⎜ µ − µ − ( k − 1)λ1 ( k − 1)λ 0 ... 0 0 0 ⎟
Λ=⎜ ⎟.
⎜ ... ... ... ... ... ... ... ... ⎟
⎜ ⎟
⎜ 0 0 0 0 ... 0 kµ − kµ ⎟⎠

Пусть, например, число турникетов k = 5 . Тогда
⎛ - 5λ 5λ 0 0 0 0 ⎞
⎜ ⎟
⎜µ -4λ − µ 4λ 0 0 0 ⎟
⎜ ⎟
⎜0 2µ − 2 µ − 3λ 3λ 0 0 ⎟
Λ=⎜ ⎟.
⎜0 0 3µ - 3µ − 2λ 2λ 0 ⎟
⎜ ⎟
⎜0 0 0 4µ − 4µ − λ λ ⎟
⎜ ⎟
⎜0 0 0 0 5µ - 5µ ⎟⎠

Напомним схему решения. Из системы однородных уравнений
P st Λ = 0 , где P st = ( P1 , P2 , ..., Pk ) , можно исключить одно (например, по-
k
следнее) уравнение, заменив его условием ∑ Pi = 1. В результате система
i =1
примет вид
P st A = B ,
где матрица A есть изменённая матрица Λ (последний столбец заменён
единицами), а B = (0, 0, ..., 0, 1) — матрица размером 1 × k . Таким образом,
P st = BA −1 . Описаний действий в EXCEL мы здесь приводить не станем,
так как они не содержат ничего нового по сравнению с пунктом 5.2. Убе-
дитесь, что при пяти турникетах для t = 50, s = 1 предельное стационарное
распределение вероятностей получается таким же, как при решении при-
мера 3 в параграфе 3.
Преимущество описанного компьютерного решения состоит в том,
что в нём реализован общий подход к процессам с непрерывным време-
нем. Необходимо лишь иметь матрицу интенсивностей.

5.4. Многоканальные СМО с отказами

Пример 7. Диспетчерская служба может иметь несколько линий свя-


зи. Поток вызовов простейший с интенсивностью λ = 0,8 вызовов в мину-

56
ту. Среднее время переговоров с диспетчером составляет 3 мин. Время пе-
реговоров распределено по показательному закону. При разном числе ли-
ний связи (от 1 до 10) найти абсолютную и относительную пропускные
способности диспетчерской службы, вероятность отказа, среднее число за-
нятых каналов. Определить, сколько линий связи должна иметь диспетчер-
ская служба, чтобы вероятность отказа не превышала 0,01.
Отметим, что последний пункт задания представляет собой обрат-
ную задачу – задачу оптимизации.
Введём исходные данные об интенсивности входящего потока и
среднем времени обслуживания в ячейки F1 и F2. Интенсивность потока
обслуживания и коэффициент загрузки будут вычисляться в ячейках F3 и
F4 по формулам =1/F2 и =F1/F3 соответственно.
Для вычисления вероятности того, что все каналы свободны, по
формуле (4.6)
−1
⎛ ρ2 ρ3 ρk ⎞
P0 = ⎜⎜1 + ρ + + + ... + ⎟⎟
⎝ 2! 3! k ! ⎠
выполним следующие действия.
1) Введём целые числа от 1 до 10 в диапазоны B6:K6 и A8:A17.
2) Диапазон B7:K7 заполним единицами (это будет первое слагаемое в
скобках в формуле (4.6)).
3) В ячейку K8 введём формулу =$F$4 (второе слагаемое формулы
(4.6)).
4) В ячейку K9 введём =K8*$F$4/$A9 (у последней ссылки фиксирует-
ся только номер столбца, но не строки).
5) От «источника» K9 выполним автозаполнение ячеек K10:K17.
6) От «источников» K9, K10, …, K17 последовательно выполняем авто-
заполнение соответствующих строк (справа налево), всякий раз
уменьшая число заполненных клеток на 1 (см. таблицу).
7) Диапазон B18:K18 заполним суммами соответствующих столбцов
(от строки 7 до строки 17).
8) В диапазон B19:K19 введём формулы, вычисляющие обратные вели-
чины от содержимого ячеек B18:K18.

Для вычисления вероятностей других состояний СМО достаточно


применить формулы Эрланга. Для этого в ячейку K20 введите формулу
=K$19*K8, а затем выполните автозаполнение таблицы (сначала вниз, а за-
тем влево). Самостоятельно организуйте расчёт показателей эффективно-
сти СМО (это совсем просто).

57
A B C D E F G H I J K
1 λ 0,8
2 M (Tобсл ) 3
3 µ 0,333
4 ρ 2,4
5
6 1 2 3 4 5 6 7 8 9 10
7 1 1 1 1 1 1 1 1 1 1
8 1 2,4 2,4 2,4 2,4 2,4 2,4 2,4 2,4 2,4 2,4
9 2 2,88 2,88 2,88 2,88 2,88 2,88 2,88 2,88 2,88
10 3 2,304 2,304 2,304 2,304 2,304 2,304 2,304 2,304
11 4 1,382 1,382 1,382 1,382 1,382 1,382 1,382
12 5 0,664 0,664 0,664 0,664 0,664 0,664
13 6 0,265 0,265 0,265 0,265 0,265
14 7 0,091 0,091 0,091 0,091
15 8 0,027 0,027 0,027
16 9 0,007 0,007
17 10 0,002
18 сумма 3,4 6,28 8,584 9,966 10,63 10,90 10,99 11,01 11,02 11,02
19 P0 0,294 0,159 0,116 0,100 0,094 0,092 0,091 0,091 0,091 0,091
20 P1 0,706 0,382 0,280 0,241 0,226 0,220 0,218 0,218 0,218 0,218
21 P2 0,000 0,459 0,336 0,289 0,271 0,264 0,262 0,261 0,261 0,261
22 P3 0,000 0,000 0,268 0,231 0,217 0,211 0,210 0,209 0,209 0,209
23 P4 0,000 0,000 0,000 0,139 0,130 0,127 0,126 0,126 0,125 0,125
24 P5 0,000 0,000 0,000 0,000 0,062 0,061 0,060 0,060 0,060 0,060
25 P6 0,000 0,000 0,000 0,000 0,000 0,024 0,024 0,024 0,024 0,024
26 P7 0,000 0,000 0,000 0,000 0,000 0,000 0,008 0,008 0,008 0,008
27 P8 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,002 0,002 0,002
28 P9 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,001 0,001
29 P10 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000
30 ∑ 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000
31 Pотк 0,706 0,459 0,268 0,139 0,062 0,024 0,008 0,002 0,001 0,000
32 Q 0,294 0,541 0,732 0,861 0,938 0,976 0,992 0,998 0,999 1,000
33 A 0,235 0,433 0,585 0,689 0,750 0,781 0,793 0,798 0,799 0,800
34 k 0,706 1,299 1,756 2,067 2,250 2,342 2,380 2,394 2,398 2,400

Проанализируем результаты. Вероятность отказа диспетчерской


службы при небольшом числе каналов оказалась весьма значительной (на-
пример, при наличии только двух каналов она приближается к 1 2 ). По ус-
ловию задачи диспетчерская служба должна иметь столько линий связи,
чтобы вероятность отказа не превышала 0,01. Как видно из таблицы, это
выполняется только при числе каналов, равном 7 (и более). Это и будет оп-
тимальным числом линий связи. При этом абсолютная пропускная способ-
ность службы будет составлять 0,793 разговора в минуту, а среднее число
занятых линий будет равно 2,38 (из 7).

58
6. Моделирование случайных процессов
и СМО методом Монте-Карло

6.1. Понятие статистического моделирования

Методом Монте-Карло (или статистическим моделированием) на-


зывается метод решения различных математических задач при помощи
численной имитации поведения случайных величин (функций, процессов)
и статистического оценивания их характеристик. Название «Монте-
Карло» произошло от одноимённого города в княжестве Монако, извест-
ного своими казино, ибо одним из простейших приборов для моделирова-
ния случайных чисел является рулетка.
Теоретически сам метод возник давно и не раз использовался в тео-
рии вероятностей и математической статистике. Однако статистическое
моделирование случайных величин вручную (например, с помощью той же
рулетки, игральной кости, монеты) − весьма трудоёмкий процесс. Поэтому
серьёзное развитие метод Монте-Карло получил с конца 1940-х годов (в
США) с разработкой и совершенствованием компьютеров.
Метод Монте-Карло используется для решения задач физики, теории
массового обслуживания, экономики, биологии, социологии и других.
Сама идея метода несложна. Производится многократно повторяю-
щийся «розыгрыш» случайного явления. Каждая реализация уникальна,
однако статистическая обработка всего собранного материала может дать
любые интересующие нас характеристики: вероятности, математические
ожидания и т.д.
В пункте 6.2, вернувшись к некоторым простым примерам, рассмот-
ренным в предыдущих параграфах, мы дадим представление о том, как
можно решать подобные задачи «напрямую», практически не прибегая к
аналитическому аппарату алгебраических и дифференциальных уравне-
ний. Конечно, применять к таким простым задачам, имеющим стандартное
аналитическое решение, метод Монте-Карло, вообще говоря, неразумно.
Он предназначен для более сложных проблем. Например, система массо-
вого обслуживания может быть немарковской, с изменяющимся случай-
ным образом числом каналов и т.п. Однако в учебных целях знакомство с
методом статистического моделирования лучше начать именно с простых
примеров.
Реализация некоторого случайного явления или процесса методом
Монте-Карло строится из последовательности так называемых единичных
жребиев (т.е. опытов со случайным исходом), перемежающихся с обычны-
ми расчётами. Единичный жребий может быть реализован с помощью ге-
нерации случайного числа – значения случайной величины, равномерно
распределённой на интервале от 0 до 1. В EXCEL для этого существует

59
специальная функция без аргументов СЛЧИС() (математические). Обо-
значим такое случайное число через γ . Нас будут интересовать три вида
единичного жребия, которые мы рассмотрим последовательно.
Произошло ли данное событие? Пусть нам известно, что событие A
имеет вероятность p . Можно условиться считать, что если γ приняло зна-
чение меньше p , то событие A произошло; при γ ≥ p событие не про-
изошло. Вопрос о том, почему «граничный» случай γ = p , трактуется как
ненаступление события, не имеет никакого практического значения. Учи-
тывая точность компьютерного представления действительных чисел, ве-
роятностью такого совпадения можно просто пренебречь. Во всяком слу-
чае, на результат статистического моделирования это никакого влияния не
оказывает.
Какое из нескольких событий, образующих полную группу несовме-
стных событий, произошло? Пусть события A1 , A2 , ..., Ak наступают с ве-
роятностями p1 , p 2 , ..., p k , образуя полную группу несовместных событий,
так что
k
∑ pi = 1.
i =1

Можно принять следующий алгоритм, определяющий наступление того


или иного события в зависимости от значения случайного числа γ :

да A1
γ < p1 да A2
нет γ < p1 + p 2

нет

да Ak −1
γ < p1 + p 2 + ... + p k −1

нет
Ak

60
Пусть, например, A1 , A2 , ..., A5 – равновозможные события, образующие
полную группу несовместных событий (т.е. каждое из них имеет вероят-
ность 0,2). Случайное число приняло значение γ = 0,68 . Поскольку
0,2 + 0,2 + 0,2 < 0,68 < 0,2 + 0,2 + 0,2 + 0,2 ,
считаем, что произошло событие A4 .

Какое значение приняла случайная величина X ? Сначала рассмотрим


дискретную случайную величину с известным законом распределения:
значения x1 , x 2 , ..., x k принимаются с вероятностями p1 , p 2 , ..., p k соответ-
ственно. Легко понять, что этот случай сводится к предыдущей задаче, по-
скольку равенства X = x1 , X = x 2 , …, X = x k можно рассматривать как
события A1 , A2 , ..., Ak . Пусть, например, случайная величина подчинена
биномиальному закону распределения
x 3− xi
⎛1⎞ ⎛ 3⎞
i

P( X = x i ) = C 3xi ⎜ ⎟ ⎜ ⎟ , где x i = 0, 3 ,
⎝4⎠ ⎝ 4⎠
т.е.

xi 0 1 2 3
27 27 9 1
pi
64 64 64 64

Допустим, что случайное число приняло значение 0,47. Поскольку


27 54
< 0,47 < ,
64 64
считаем, что случайная величина приняла значение X = 1.

Подход к разыгрыванию непрерывной случайной величины X по её


функции распределения F ( x) тоже достаточно прост. Имея случайное чис-
ло γ следует определять случайное число x (значение случайной величи-
ны X ) как решение уравнения
F ( x) = γ . (6.1)

Например, для равномерного распределения


x−a
F ( x) = , a < x <b,
b−a

61
и, следовательно,
x−a
=γ ⇒ x = (b − a )γ + a . (6.2)
b−a
Заметим, что в данном случае связь между γ и x достаточно очевидна:
умножение на (b − a ) изменяет длину интервала, добавление a смещает
его начало.

6.2. Примеры анализа случайных процессов и СМО


методом Монте-Карло

Пример 1. (См. пример 3 параграфа 1). Матрица перехода цепи Мар-


кова имеет вид

~ ⎛ 0,4 0,6 ⎞
P = ⎜⎜ ⎟⎟ .
⎝ 0,3 0,7 ⎠
Найти стационарное распределение вероятностей по состояниям.
На листе EXCEL размещаем исходные данные и формируем табли-
цу, моделирующую случайный процесс методом Монте-Карло. Для опре-
деления предельного стационарного режима мы должны получить доста-
точно длинную реализацию случайного процесса. В этом случае начальное
состояние можно задать любым. Поэтому в ячейку A5 введём 0 (нулевой
момент времени), в ячейку C5 – число 1 (состояние S 1 ) или число 2 (со-
стояние S 2 ). В ячейку B6 вводим =СЛЧИС(), а в ячейку C6 – формулу,
которая будет определять состояние процесса в момент времени 1. Эта
процедура задаётся в соответствии с приведённым выше правилом: собы-
тие, имеющее вероятность p , наступает в том случае, если случайное чис-
ло γ оказывается меньше, чем p . Поэтому, если предыдущим состоянием
является S1 , то в случае γ < P11 система останется в этом состоянии; в про-
тивном случае произойдёт переход в состояние S 2 . Если же предыдущим
состоянием является S 2 , то в случае γ < P21 произойдёт переход в состоя-
ние S1 ; в противном случае система останется в то же состоянии.

Организуем эту процедуру с помощью логической функции ЕСЛИ


(лог. выражение; значение, если истина; значение, если ложь). Соответст-
вующая формула вводится в ячейку C6.

62
A B C
1 Матрица перехода
2 0,4 0,6
3 0,3 0,7
4 Время Сл. число Состояние
5 0 1
6 =ЕСЛИ(C5=1;ЕСЛИ(B6<$B$2;1;2);
=A5+1 =СЛЧИС() ЕСЛИ(B6<$B$3;1;2))
7
8
Знак $ фиксирует адреса ячеек, которые не должны измениться при после-
дующем автозаполнении. Теперь выделим ячейки A6:C6 и выполним авто-
заполнение вниз до строки 10005 (при этом реализация случайного про-
цесса будет включать 10000 моментов времени).
Когда таблица велика и не помещается на экране, удобно закрепить
строку заголовков. Для этого щёлкните по ячейке A6, войдите в меню Ок-
но и выберите Закрепить области. Теперь, даже если вы переместитесь
вниз таблицы, названия столбцов останутся на экране.
Под таблицей в двух свободных ячейках поместите формулы
=СЧЁТЕСЛИ(C6:C10005;1) и =СЧЁТЕСЛИ(C6:C10005;2) (функция СЧЁ-
ТЕСЛИ относится к статистическим). В этих ячейках будет подсчиты-
ваться суммарное время T1 и T2 , которое система провела в состояниях S1
и S 2 соответственно.
Щелчком мыши активизируйте любую свободную ячейку рабочего
листа и раз за разом нажимайте на клавишу Delete. При каждом нажатии
будет генерироваться новая реализация продолжительностью T = 10000, и,
следовательно, будут появляться новые значения T1 и T2 . Стационарное
предельное распределение вероятностей состояний может быть оценено
как P1 = T1 / T , P2 = T2 / T .

Убедитесь, что почти при каждой реализации эти значения достаточно


близки (до 0,01) к точным значениям P1=1/3, P2=2/3, которые были полу-
чены при решении примера 3 параграфа 1.

Пример 2. (См. пример 1, пункты 2.1, 2.2, 2.3). Задана матрица ин-
тенсивностей переходов для процесса с непрерывным временем
⎛− 3 1 2⎞
⎜ ⎟
Λ = ⎜ 0 − 2 2 ⎟.
⎜ ⎟
⎜ 1 0 − 1⎟⎠

63
Найти стационарное распределение вероятностей по состояниям.
Применим искусственную дискретизацию времени подобно тому,
как мы это делали при численном решении систем дифференциальных
уравнений Колмогорова (пункт 5.2). Будем считать, что время изменяется
дискретно с некоторым малым шагом ∆t . Мы знаем (пункт 2.1), что если
∆t мало, то
Pij (t + ∆t ) ≈ λij ∆t (6.3)

при условии, что i ≠ j . Напротив, при совпадении начального и конечного


состояний перехода
Pii (t + ∆t ) ≈ 1 + λii ∆t . (6.4)

Записанные приближённые равенства могут быть использованы для того,


чтобы перейти от процесса с непрерывным временем, характеризуемого
матрицей интенсивностей Λ , к процессу с дискретным временем, характе-
~
ризуемому матрицей перехода P . Например, при ∆t = 0,1 можно получить
матрицу
⎛ 0,7 0,1 0,2 ⎞
~ ⎜ ⎟
P = ⎜ 0 0,8 0,2 ⎟ ,
⎜ 0,1 0 0,9 ⎟
⎝ ⎠
удовлетворяющую всем необходимым требованиям к матрице перехода.
Таким образом, перейдя к процессу с дискретным временем, мы получили
задачу, отличающуюся от предыдущего примера 1 лишь числом возмож-
ных состояний процесса. Приступим к её решению методом Монте-Карло
в EXCEL. В диапазон ячеек B2:D4 введём матрицу интенсивностей, в
ячейку D5 – выбранный шаг по времени, в диапазон B6:D8 – формулы,
вычисляющие переходные вероятности в соответствии с правилами (6.3) и

A B C D
1 Матрица интенсивностей
2 -3 1 2
3 0 -2 2
4 1 0 -1
5 Матрица перехода за время ∆t = 0,1
6 0,7 0,1 0,2
7 0 0,8 0,2
8 0,1 0 0,9
9 Время Сл. число Состояние
10 0 1
Формула
11 =A10+$D$5 =СЛЧИС()
(6.5)
12
64
(6.4). Диапазон ячеек A9:C11 заполняется подобно тому, как это было сде-
лано в примере 1. Однако формула для генерации состояния процесса на
текущем шаге (в ячейке C11) будет, разумеется, несколько более сложной,
чем в примере 1 (из-за увеличения размерности матрицы перехода):
=ЕСЛИ(C10=1;ЕСЛИ(B11<$B$6;1;ЕСЛИ(B11<$B$6+$C$6;2;3));
ЕСЛИ(C10=2;ЕСЛИ(B11<$B$7;1;ЕСЛИ(B11<$B$7+$C$7;2;3)); (6.5)
ЕСЛИ(B11<$B$8;1;ЕСЛИ(B11<$B$8+$C$8;2;3)))).
Данной формуле можно было бы придать более простой вид, если учесть
тот факт, что в матрице перехода есть элементы, равные нулю. Однако в
таком случае изготовленный нами файл не мог бы использоваться для ре-
шения аналогичных задач с другими исходными данными.

Дальнейшие действия, по сути, ничем не отличаются от того, что мы


делали при решении примера 1 (автозаполнение, подсчёт времени, прове-
дённого системой в разных состояниях, оценивание предельных вероятно-
стей). Сравните оценки вероятностей состояний с ранее полученным нами
аналитическим решением
2 1 2
P1 = , P2 = P3 = .
9 9 3
Теперь с помощью изготовленного файла мы можем решить любую анало-
гичную задачу (о процессе с тремя возможными состояниями). Достаточно
лишь заменить матрицу интенсивностей. Проверьте это для примера 5 па-
раграфа 5.

Пример 3. Вернёмся к примеру 2 из параграфа 3, где речь шла об


обслуживании двух параллельно работающих компьютеров, с помощью
которых продаются железнодорожные билеты. При выходе из строя одно-
го из компьютеров касса продолжает работать за счёт второго компьютера
с нормальной производительностью (100%). При выходе из строя двух
компьютеров билеты продаются вручную (производительность падает до
30% от нормы). Потоки поломок и обслуживания для каждого из компью-
теров являются простейшими со средним временем безотказной работы
одного компьютера 10 суток и средним временем ремонта 2 суток. Требу-
ется найти среднюю производительность (в %) работы кассы по продаже
билетов.
Решая эту задачу в параграфе 3, мы рассмотрели граф состояний и
пришли к выводу, что речь идёт о процессе гибели и размножения. Для
применения метода Монте-Карло нам понадобится лишь матрица интен-
сивностей, которую легко составить по графу состояний:

65
⎛ − 0,2 0,2 0⎞
⎜ ⎟
Λ = ⎜ 0,5 − 0,6 0,1⎟ .
⎜ 0 1 − 1⎟⎠

Теперь можно обратиться к файлу, изготовленному для решения примера 2
настоящего параграфа, задав шаг по времени, скажем, ∆t = 0,5 . Легко убе-
диться, что при каждой реализации оценки вероятностей состояний оказы-
ваются близки к ранее полученному нами аналитическому решению
P1 = 25 / 36, P2 = 10 / 36 P3 = 1 / 36 .

Следовательно, и оценка производительности работы кассы окажется дос-


таточно точной (приблизительно 98% от номинальной производительно-
сти).

В задачах, решённых нами в данном параграфе, речь шла о марков-


ских процессах. Как отмечалось выше (параграф 3), в системе массового
обслуживания случайный процесс является марковским, если поток заявок
и поток обслуживания – простейшие. В простейшем (пуассоновском) по-
токе время между моментами поступления (или обслуживания) заявок
распределено по показательному закону (п. 3.2). В других, более сложных
случаях могут реализовываться иные законы распределения. Подход, ос-
нованный на использовании матрицы интенсивности Λ , в этих случаях
неприменим. Можно отказаться от него, перейдя к непосредственному мо-
делированию входящего и выходящего потоков. Это будет проиллюстри-
ровано на следующем примере.

Пример 4. Вернёмся к примеру 1 параграфа 4. Напомним его. Ин-


тенсивность входящего потока вызовов на данный телефонный номер со-
ставляет 0,6 вызова в минуту, средняя продолжительность разговора равна
2,5 минуты. Входящий и выходящий потоки — простейшие. Требуется оп-
ределить относительную и абсолютную пропускную способность данной
СМО методом Монте-Карло.

Тот факт, что потоки, фигурирующие в задаче, являются простей-


шими, в данном случае для нас не принципиален. Общее правило разыг-
рывания непрерывной случайной величины было определено выше, в п.
6.1: имея случайное число γ следует определять случайное число x (зна-
чение случайной величины X ) как решение уравнения (6.1)
F ( x) = γ .

Если поток простейший, то время между моментами поступления (обслу-


живания) заявок распределено по показательному закону. Поэтому

66
F (t ) = 1 − e − λ t

и, следовательно,
1
e − λt = 1 − γ ⇒ − λt = ln(1 − γ ) ⇒ t = − ln(1 − γ ) .
λ
Легко понять, что в силу специфики поведения случайного числа γ , по-
следней формуле можно придать более простой вид:
ln γ
t=− . (6.6)
λ
Подготовим таблицу для моделирования СМО методом Монте-Карло.
A B C D E F G H
1 λ 0,6
2 µ 0,4
3
Счёт-
Время
Момен- Оконча- чик об-
Слу- между Слу- Время
Номер ты при- ние об- служен
4 чайное прихо- чайное обслужи-
заявки хода служива- ных
число дами число вания
заявок ния заявок
заявок

В ячейки B1 и B2 введём соответственно интенсивность потока заявок λ и


интенсивность потока обслуживания µ = 1 2,5 = 0,4 . В ячейку A5 введём 1,
в ячейку A6 – формулу =A5+1 и применим автозаполнение вниз до номе-
ра 100. В ячейку B5 введём функцию СЛЧИС() и выполним автозаполне-
ние вниз (до ячейки B104 включительно). Работать будем только с одной
реализацией 100 случайных чисел. Поэтому, чтобы не было их постоянно-
го обновления, зафиксируем эти случайные числа. Для этого выделим диа-
пазон B5:B104, скопируем его в буфер, щёлкнем по ячейке B5, выберем
Правка, Специальная вставка, Вставить…значения, ОК. Сгенериро-
ванные случайные числа больше меняться не будут. Время между прихо-
дами заявок (между вызовами) будем задавать по формуле (5.5). Для этого
можно в ячейку C5 ввести формулу =(1/$B$1)*(-LN(B5)) и применить ав-
тозаполнение вниз. Момент прихода 1-й заявки (ячейка D5) совпадает с
временем в ячейке C5. Последующие же моменты прихода заявок вычис-
ляются рекуррентным образом (предыдущий момент плюс новое время
между заявками). Следовательно, в ячейку D6 нужно ввести формулу
=D5+C6 и применить автозаполнение вниз.
В ячейку E5 вводим =СЛЧИС(), генерируем случайное число и фик-
сируем его значение способом, описанным в предыдущем абзаце. Время
обслуживания задаём по формуле

67
ln γ
tобсл = − .
µ
Для этого нужно в ячейку F5 ввести формулу =(1/$B$2)*(-LN(E5)).
Время окончания обслуживания есть время поступления заявки плюс
время обслуживания. Поэтому в ячейку G5 вводим формулу =D5+F5. В
ячейку H5 вводим 1 (первая поступившая заявка обслужена).
Поскольку в задаче рассматривается одноканальная СМО с отказа-
ми, следующая пришедшая заявка будет обслуживаться только в том слу-
чае, если к моменту её прихода канал освободится. Поэтому в столбце D
мы должны пропустить все ячейки, в которых числа оказались меньше,
чем число в ячейке G5. Как только число в столбце D окажется больше,
чем в G5, проводим описанную выше процедуру: генерация случайного
числа, вычисление времени обслуживания и момента окончания обслужи-
вания, запись 1 в счётчик обслуженных заявок (конечно, с использованием
копирования). Снова отыскиваем заявку, пришедшую следом за окончани-
ем обслуживания и т.д. Число обслуженных заявок можно подсчитать с
помощью функции СЧЁТЕСЛИ, либо с помощью обычного суммирования.
Приводим пример результатов расчёта.
A B C D E F G H
1 λ 0,6
2 µ 0,4
3
Но- Слу- Момен- Слу- Оконча- Счётчик
Время меж- Время
мер чай- ты при- чай- ние об- обслу-
4 ду прихода- обслу-
заяв- ное хода ное служи- женных
ми заявок живания
ки число заявок число вания заявок
5 1 0,377 1,627 1,627 0,274 3,241 4,868 1
6 2 0,795 0,383 2,009
7 3 0,794 0,385 2,394
8 4 0,830 0,311 2,705
9 5 0,297 2,023 4,727
10 6 0,901 0,175 4,902 0,381 2,416 7,317 1
11 7 0,695 0,606 5,508
… … … … … … … … …
100 96 0,442 1,362 128,240
101 97 0,212 2,583 130,823
102 98 0,819 0,333 131,157 0,034 8,445 139,601
103 99 0,150 3,164 134,320
104 100 0,505 1,140 135,460
105 всего 41
106

Изучая таблицу, можно придти к следующим выводам. За 135,46 мин


поступило 100 заявок (звонков). Обслужена 41 заявка (42-я заявка обслу-

68
жена на 140-й минуте, т.е. за пределами названного временного интерва-
ла). Таким образом, для данной реализации относительная пропускная
способность СМО составила 41/ 100 = 0,41, что очень хорошо совпадает с
аналитическим расчётом (0,4). Абсолютная пропускная способность равна
41 / 135,46 = 0,3 , что несколько превышает результат аналитического рас-
чёта (0,24). Это связано с тем, что в данной реализации интенсивность
входящего потока заявок оказалась выше заданной (0,74 против 0,6).

Следует признать, что приведённый способ решения последней за-


дачи в EXCEL является не очень удобным, поскольку содержит достаточ-
но большое число операций, выполняемых не автоматически, т.е. «вруч-
ную». Конечно, все эти операции могут быть автоматизированы, но для
этого пришлось бы прибегнуть к программированию или воспользоваться
готовыми программными средствами. Такие подходы уже выходят за рам-
ки данного пособия.

Вопросы для самоконтроля

1. Какие случайные процессы называют процессами с дискретным (не-


прерывным) временем? Приведите примеры тех и других процессов.
2. Какой случайный процесс называется марковским?
3. Как называется марковская цепь, для которой вероятность Pij(m ) пе-
рехода из состояния i в состояние j , где i и j принимают все возможные
значения, одинакова для любого шага m ?
4. Из каких элементов состоит граф состояний случайного процесса?
Поясните на примере.
5. Какое состояние процесса называют: несущественным? существен-
ным?
6. Что такое состояние поглощения?
7. Какие состояния называют сообщающимися?
8. Что такое приводимые и неприводимые цепи Маркова?
9. Запишите и объясните равенство Маркова для вероятностей перехо-
дов за m шагов.
10. Как найти матрицу перехода за m шагов, если известна матрица пе-
рехода за 1 шаг?
11. Как найти вектор распределения вероятностей по состояниям на ша-
ге m через начальный вектор вероятностей состояний и матрицу перехода
за m шагов?
12. Что такое стационарное распределение вероятностей состояний?
13. Запишите в матричном виде условие стационарности процесса с
дискретным временем.

69
14. При каком условии марковская цепь с конечным числом состояний
имеет единственное стационарное предельное распределение вероятно-
стей?
15. Чему равна предельная стационарная вероятность: (1) несуществен-
ного состояния? (2) единственного состояния поглощения (при отсутствии
других классов существенных состояний)?
16. Почему для описания процессов с непрерывным временем применя-
ется не матрица перехода, а матрица интенсивностей?
17. Объясните тот факт, что интенсивность перехода может быть вели-
чиной как положительной, так и отрицательной. На каких местах в матри-
це интенсивностей стоят отрицательные элементы, и почему?
18. Как по интенсивности перехода приближённо рассчитать вероят-
ность перехода из состояния i в состояние j за малое время ∆t ? Рассмот-
рите раздельно случаи i ≠ j и i = j .
19. Охарактеризуйте систему уравнений Колмогорова для марковского
процесса с непрерывным временем.
20. Запишите систему уравнений Колмогорова в матричном виде.
21. Как выглядит условие стационарности марковского процесса с не-
прерывным временем в матричном виде?
22. Нарисуйте граф состояний процесса гибели и размножения. Почему
для этого процесса всегда имеется предельное стационарное распределе-
ние вероятностей?
23. В каком случае система массового обслуживания (СМО) называется
открытой, и в каком – замкнутой? Приведите примеры.
24. Что такое СМО с отказами? Что такое СМО с ожиданием (с очере-
дью)?
25. Приведите примеры одноканальных и многоканальных СМО.
26. Назовите и охарактеризуйте условия, которым должен удовлетво-
рять простейший поток заявок.
27. Дайте определение интенсивности входящего потока заявок.
28. Какому закону распределения подчиняется вероятность того, что в
течение промежутка времени (0, t ) поступит ровно k заявок?
29. Почему простейший поток называется также пуассоновским пото-
ком?
30. Какому закону распределения подчиняется время между поступле-
ниями заявок в простейшем потоке?
31. Как связаны между собой интенсивность потока обслуживания и
среднее время обслуживания?
32. Что такое относительная пропускная способность СМО с отказами?
33. Как называется среднее число заявок, обслуживаемых СМО с отка-
зами в единицу времени?
34. Как вычисляется коэффициент загрузки канала?
35. Перечислите характеристики СМО с неограниченной очередью.

70
36. Почему для СМО с неограниченной очередью не вычисляются веро-
ятность отказа и относительная пропускная способность? Как для такой
СМО найти абсолютную пропускную способность?
37. Сформулируйте идею метода Монте-Карло.
38. Пусть имеется некоторый способ генерации случайных чисел, рав-
номерно распределённых в интервале от 0 до 1. Как разыграть случайное
событие, наступающее с вероятностью p ?
39. Как с помощью метода Монте-Карло разыграть дискретную случай-
ную величину с заданным законом распределения?
40. Как при статистическом моделировании разыгрывается непрерыв-
ная случайная величина с известной функцией распределения?

71
Задачи контрольной работы
Задача 1
Дана матрица перехода цепи Маркова. В начальный момент система
находится в состоянии S1 . Требуется:
1) построить граф состояний и дать анализ характера состояний системы;
2) найти матрицу перехода за 2 шага;
3) найти распределение вероятностей по состояниям после 2-го шага;
4) найти стационарное распределение вероятностей по состояниям или
дать аргументированное объяснение того факта, что стационарное со-
стояние не существует или не является единственным.
⎛0 0,1 0,1 0 0,1 0,7 ⎞
⎜ ⎟
⎜ 0,2 0,1 0 0,1 0 0,6 ⎟
⎜ ⎟
⎜ 0,4 ⎟
~ ⎛ 0,4 0,6 ⎞ ~ ⎜ 0,2 0,2 0,1 0,1 0
⎟.
Вариант 1. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,5 0,5 ⎠ ⎜ 0,2 0 0,1 0 0,2 0,5 ⎟
⎜ ⎟
⎜ 0,1 0,2 0 0 0 0,7 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,2 0,1 0,2 0,3 ⎟⎠

⎛ 0,2 0,2 0,1 0,1 0,2 0,2 ⎞


⎜ ⎟
⎜ 0,1 0,1 0 0,1 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,4 ⎟
~ ⎛ 0,7 0,3⎞ ~ ⎜ 0,1 0,1 0,2 0,1 0,1
⎟.
Вариант 2. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,9 0,1 ⎠ ⎜0 0,1 0,2 0 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0,1 0 0,6 ⎟
⎜ ⎟
⎜ 0,1 0,2 0,1 0,2 0,1 0,3 ⎟⎠

⎛ 0,1 0,2 0,1 0 0,2 0,4 ⎞


⎜ ⎟
⎜0 0,1 0,1 0,2 0,2 0,4 ⎟
⎜ ⎟
⎜ 0,8 ⎟
~ ⎛ 0,5 0,5 ⎞ ~ ⎜0 0,2 0 0 0
⎟.
Вариант 3. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,8 0, 2 ⎠ ⎜ 0,1 0,1 0,1 0,2 0,2 0,3 ⎟
⎜ ⎟
⎜ 0,1 0 0 0,2 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,1 0 0 0 0,1 0,8 ⎟⎠

72
⎛ 0,2 0,1 0,1 0,1 0,2 0,3 ⎞
⎜ ⎟
⎜ 0,1 0,2 0,1 0,1 0,1 0,4 ⎟
⎜ ⎟
⎜ 0,5 ⎟
~ ⎛ 0,2 0,8 ⎞ ~ ⎜ 0,2 0,1 0,1 0,1 0
⎟.
Вариант 4. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,4 0,6 ⎠ ⎜ 0,2 0 0,1 0,1 0 0,6 ⎟
⎜ ⎟
⎜0 0,1 0,2 0 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0,2 0,2 0,3 ⎟⎠

⎛ 0,1 0,1 0,2 0,1 0,1 0,4 ⎞


⎜ ⎟
⎜ 0,2 0,1 0 0 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,7 ⎟
~ ⎛ 0,7 0,3 ⎞ ~ ⎜ 0,1 0,1 0 0,1 0
⎟.
Вариант 5. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0, 4 0,6 ⎠ ⎜0 0,1 0 0 0 0,9 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,1 0 0 0,1 0,1 0,7 ⎟⎠

⎛ 0,1 0 0,1 0,1 0,1 0,6 ⎞


⎜ ⎟
⎜ 0,1 0,2 0,2 0,2 0,1 0,2 ⎟
⎜ ⎟
⎜ 0,5 ⎟
~ ⎛ 0,6 0,4 ⎞ ~ ⎜ 0,2 0,1 0 0,1 0,1
⎟.
Вариант 6. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,8 0, 2 ⎠ ⎜0 0,2 0,2 0,1 0,1 0,4 ⎟
⎜ ⎟
⎜ 0,2 0,1 0,2 0 0 0,5 ⎟
⎜ ⎟
⎜0 0 0,2 0,1 0,1 0,6 ⎟⎠

⎛0 0,1 0,2 0,1 0,1 0,5 ⎞


⎜ ⎟
⎜ 0,2 0,2 0 0,1 0 0,5 ⎟
⎜ ⎟
⎜ 0,5 ⎟
~ ⎛ 0,1 0,9 ⎞ ~ ⎜0 0,1 0,1 0,1 0,2
⎟.
Вариант 7. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,9 0,1 ⎠ ⎜ 0,2 0 0 0 0,2 0,6 ⎟
⎜ ⎟
⎜ 0,2 0,2 0 0,1 0,1 0,4 ⎟
⎜ ⎟
⎜ 0,1 0 0,1 0,1 0,1 0,6 ⎟⎠

73
⎛ 0,1 0 0,1 0,1 0,1 0,6 ⎞
⎜ ⎟
⎜0 0 0,1 0,2 0,1 0,6 ⎟
⎜ ⎟
⎜ 0,9 ⎟
~ ⎛ 0 1 ⎞ ~ ⎜0 0 0 0 0,1
⎟.
Вариант 8. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,2 0,8 ⎠ ⎜0 0,1 0,1 0,1 0,1 0,6 ⎟
⎜ ⎟
⎜0 0,2 0,1 0,1 0,1 0,5 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0,1 0,1 0,5 ⎟⎠

⎛ 0,1 0,2 0,1 0 0,2 0,4 ⎞


⎜ ⎟
⎜ 0,2 0,1 0 0,1 0 0,6 ⎟
⎜ ⎟
⎜ 0,4 ⎟
~ ⎛ 0 1 ⎞ ~ ⎜ 0,1 0,2 0,1 0,1 0,1
⎟.
Вариант 9. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,8 0, 2 ⎠ ⎜ 0,2 0,2 0 0,1 0,1 0,4 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0,1 0 0,6 ⎟
⎜ ⎟
⎜ 0,1 0,1 0,1 0,1 0 0,6 ⎟⎠

⎛ 0,1 0,2 0,2 0,1 0,1 0,3 ⎞


⎜ ⎟
⎜ 0,2 0,1 0,1 0,2 0,1 0,3 ⎟
⎜ ⎟
⎜ 0,8 ⎟
~ ⎛ 0,6 0,4 ⎞ ~ ⎜0 0 0,1 0,1 0
⎟.
Вариант 10. а) P = ⎜⎜ ⎟⎟ ; б) P =
⎝ 0,9 0,1 ⎠ ⎜ 0,1 0,2 0 0,2 0,1 0,4 ⎟
⎜ ⎟
⎜ 0,1 0 0 0,1 0 0,8 ⎟
⎜ ⎟
⎜0 0,1 0,2 0,1 0,1 0,5 ⎟⎠

Задача 2
Задан граф состояний цепи Маркова с непрерывным временем. В на-
чальный момент времени система находится в состоянии S1 . Требуется:
1) составить матрицу интенсивностей переходов;
2) составить систему дифференциальных уравнений Колмогорова;
3) не решая самой системы, найти предельное стационарное распреде-
ление вероятностей;
4) получить численное решение системы уравнений Колмогорова с ша-
гом ∆t = 0,05 и убедиться, что при достаточно большом времени оно
выходит на стационарное решение.

74
Вариант 1 Вариант 2

2 1
S1 S2 S1 S2
4 1
5 2 1
5 1 1 1
S3 S3

Вариант 3 Вариант 4

2
S1 S2 S1 S2
2 1
4 5 4 2
1 1 1
S3 S3

Вариант 5 Вариант 6

1
S1 S2 S1 S2
2
4 2 1
1 1 2
S3 S3

Вариант 7 Вариант 8

2 4
S1 S2 S1 S2
3
2 2
1 1 7 1
S3 S3

Вариант 9 Вариант 10

1 2
S1 S2 S1 S2
1 1
3 6
1 2 1 2
S3 S3

75
Задача 3
Текст задания см. в примере 3 параграфа 3. Принять число турнике-
тов k равным 5. Другие параметры задать в соответствии с номером вари-
анта. Задание решить: 1) по формулам, полученным для процесса гибели и
размножения; 2) с помощью матрицы интенсивностей в EXCEL.
Вариант 1. t = 60, s = 2.
Вариант 2. t = 65, s = 3.
Вариант 3. t = 70, s = 4.
Вариант 4. t = 75, s = 5.
Вариант 5. t = 80, s = 6.
Вариант 6. t = 85, s = 7.
Вариант 7. t = 90, s = 8.
Вариант 8. t = 95, s = 9.
Вариант 9. t = 100, s = 10.
Вариант 10. t = 105, s = 11.

Задача 4
1) Первая АТС может иметь несколько линий связи. Поток вызовов
простейший с интенсивностью λ вызовов в минуту. Среднее время пере-
говоров составляет t минут. Время переговоров распределено по показа-
тельному закону. При числе линий связи, равном 3 найти абсолютную и
относительную пропускные способности АТС, вероятность отказа, среднее
число занятых линий связи. Определить, сколько линий связи должна
иметь АТС, чтобы вероятность отказа не превышала α .
2) На второй АТС есть только одна линия связи, но зато установле-
но устройство, позволяющее удерживать поступившие вызовы в неограни-
ченной очереди. Предположения о потоках заявок и обслуживания — те
же, что для первой АТС. Найти среднее число заявок в системе, среднее
время пребывания заявки в системе, среднее число заявок в очереди, сред-
нее время пребывания заявки в очереди, вероятность того, что канал занят
(степень загрузки канала).
Вариант 1. λ =0,3, t=2,5, α =0,006.
Вариант 2. λ =0,3, t=2,7, α =0,003.
Вариант 3. λ =0,3, t=2,9, α =0,004.
Вариант 4. λ =0,2, t=3,5, α =0,006.
Вариант 5. λ =0,1, t=3,5, α =0,005.
Вариант 6. λ =0,4, t=2,2, α =0,003.
Вариант 7. λ =0,2, t=2,6, α =0,006.
Вариант 8. λ =0,4, t=2,1, α =0,003.
Вариант 9. λ =0,3, t=3,1, α =0,005.

76
Вариант 10. λ =0,2, t=2,8, α =0,004.

Задача 5
Взяв в качестве исходных данных граф состояний из задачи 2 кон-
трольной работы, смоделировать случайный процесс методом Монте-
Карло с шагом по времени ∆t = 0,1 . Получить 10 реализаций длиной
T = 1000 каждая, оценивая всякий раз стационарное предельное распреде-
ление вероятностей состояний. Результаты оформить в виде таблицы, по-
местив в неё кроме оценок предельных вероятностей точное решение
(пункт 3 задачи 2).

Библиографический список

1. Абланская Л.В. Экономико-математическое моделирование / Л.В. Абланская – М.


: Экзамен, 2006. – 798 с.
2. Бережная Е.В. Математические методы моделирования экономических систем /
Е.В. Бережная. – М. : Финансы и статистика, 2005. – 432 с.
3. Браунли К.А. Статистическая теория и методология в науке и технике / К.А. Бра-
унли – М., Наука, 1977. – 408 с.
4. Вентцель Е.С. Исследование операций. / Е.С. Вентцель. – М. : Советское радио,
1972. – 660 с.
5. Вентцель Е.С. Исследование операций. Задачи, принципы, методология / Е.С.
Вентцель. – М. : Высш. школа, 2001. – 208 с.
6. Вентцель Е.С. Теория случайных процессов и ее инженерные приложения / Е.С.
Вентцель, Л.А Овчаров. – М. : Высш. школа; 2007. – 479 с.
7. Гмурман В.Е. Теория вероятностей и математическая статистика / В.Е. Гмурман –
М. : Высшая школа, 1998. – 479 с.
8. Малышева И.А. Теория вероятностей и массового обслуживания / И.А. Малышева
– М. : Изд-во ВЗИИТ, 1988. – 38 с.
9. Саати Т.Л. Элементы теории массового обслуживания и ее приложения / Т.Л.
Саати – М. : Советское радио, 1971. – 520 с.
10. Соболь И.М. Численные методы Монте-Карло / И.М. Соболь. – М. : Наука, 1973. –
311 с.
11. Толстых О.Д. Цепи Маркова. Системы массового обслуживания / О.Д. Толстых. –
Иркутск : Изд-во ИрИИТ, 1999. – 204 с.
12. Трухан А.А. Основы теории вероятностей и математической статистики / А.А.
Трухан, Г.С. Кудряшев : ИВАИУ, 2005. – 300 с.
13. Чернов В.П. Теория массового обслуживания / В.П. Чернов, В.Б. Ивановский. –
М. : ИНФРА-М, 1998. – 158 с.

77

Вам также может понравиться