Академический Документы
Профессиональный Документы
Культура Документы
Е. К. Белый
Петрозаводск
Издательство ПетрГУ
2014
1
УДК 519.21
ББК 22.172
Д439
Печатается по решению редакционно-издательского совета
Петрозаводского государственного университета
Издается в рамках реализации комплекса мероприятий
Программы стратегического развития ПетрГУ на 2012—2016 гг.
Ре ц е н з е н т ы :
д-р физ.-мат. наук, профессор каф. геометрии и топологии ПетрГУ
С. С. Платонов;
д-р эконом. наук, зав. отделом моделирования и прогнозирования
регионального развития института экономики КарНЦ РАН
П. В. Дружинин
УДК 519.21
ББК 22.172
© Белый Е. К., 2014
© Петрозаводский государственный универ-
ISBN 978-5-8021-2203-7 ситет, 2014
2
.
Содержание
Введение 4
Биографические справки 72
Список литературы 75
3
Введение
4
учной литературе прижился введенный тогда Хинчиным термин
«теория массового обслуживания» (ТМО), а предмет исследова-
ний вскоре стали называть системами массового обслуживания
(СМО). ТМО опиралась на фундаментальные работы в области
теории случайных процессов Андрея Андреевича Маркова, Ан-
дрея Николаевича Колмогорова и ряда других математиков.
5
в свою очередь могут образовывать входящие потоки для дру-
гих подсистем СМО. Так, поток пациентов на прием к терапевту
разделяется после обслуживания на выходящий поток заявок,
обслуживание которых завершено, и потоки заявок на обслужи-
вание к хирургу, кардиологу и другим специалистам. Источник
входящего потока в зависимости от целей исследования может
рассматриваться как нечто внешнее по отношению к СМО или
же как часть системы.
6
опять неочевидно. Мы только что рассмотрели два самых про-
стых примера. А если речь пойдет об организации работы рай-
онной поликлиники? Это уже проектирование сложной системы!
7
аналитическое решение получить непросто. Однако в широком
классе задач вероятности возможных состояний СМО быстро
приближаются к некоторым предельным значениям – устано-
вившемуся решению. В третьей главе анализируются системы
гибели и размножения для случая установившихся решений.
из адресов:
8
Глава 1. Входящий поток
9
природы исследуемых явлений, события приходится рассматри-
вать именно как случайные.
Вопрос о том, что в той или иной ситуации можно считать со-
бытием, обычно не вызывает затруднений. Если нас интересует
работа диспетчера такси, очевидно, что событиями будут звонки
клиентов на служебный телефон, но никак не звонки ее подруг
на личный мобильный телефон. Другой вопрос – однородность
потока. Однородность означает возможность привлечь для об-
работки событий одни и те же технологии, ресурсы системы. На
практике часто неоднородный поток заменяют набором однород-
ных потоков. Например, неоднородный поток бытовой техники
в ремонтной мастерской удобно разбить на однородные потоки
холодильников, чайников, утюгов и т. д. Это разбиение моти-
вируется спецификой обслуживания соответствующих заявок и
различными квалификационными требованиями к мастерам по
ремонту техники. Здесь вопрос однородности заявок тесно свя-
зан с вопросом глубины специализации персонала мастерской.
10
§ 1.1. Определение простейшего потока
𝑃>1 (ℎ)
lim = 0.
ℎ→0 ℎ
11
Отсюда следует равенство нулю вероятности появления од-
новременно двух и более событий (разумеется, последнее
не исключает возможность появления сразу двух и более
событий).
12
и достаточно, чтобы ни одного события не произошло на каж-
дом из 𝑛 частных интервалов. Поскольку 𝑃0 (1/𝑛) зависит толь-
ко от длины интервала, при условии отсутствия последействия
1
𝑃0 (1) = [𝑃0 (1/𝑛)]𝑛 = 𝜃 или 𝑃0 (1/𝑛) = 𝜃 𝑛 . Аналогично при на-
𝑘
туральном 𝑘 получим 𝑃0 (𝑘/𝑛) = 𝜃 𝑛 . Пусть вещественное число
𝑡 > 0. Тогда для любых 𝑡 и 𝑛 можно найти такое 𝑘 , что
𝑘−1 𝑘
≤𝑡≤ =⇒
𝑛 𝑛
𝑘−1 𝑘 𝑘−1 𝑘
=⇒ 𝑃0 ( ) ≥ 𝑃0 (𝑡) ≥ 𝑃0 ( ) или 𝜃 𝑛 ≥ 𝑃0 (𝑡) ≥ 𝜃 𝑛 .
𝑛 𝑛
Тогда
𝑘 𝑘−1
lim = lim =𝑡 и 𝑃0 (𝑡) = 𝜃𝑡 .
𝑛→∞ 𝑛 𝑛→∞ 𝑛
Поскольку вероятность всегда принимает значения из интерва-
ла [0; 1], мы должны рассмотреть три случая: 𝜃 = 0 , 𝜃 = 1 и
0 < 𝜃 < 1 . В первом случае 𝑃0 (𝑡) = 0 для любого 𝑡 > 0 и, сле-
довательно, на любом сколь угодно малом интервале произойдет
бесконечное множество событий, что противоречит принципу ор-
динарности потока. Во втором случае 𝑃0 (𝑡) = 1 и поток, как та-
ковой, отсутствует. Остается только третий случай. Введем заме-
ну переменной 𝜃 = 𝑒−𝜆·𝑡 , где 𝜆 > 0 – некоторый вещественный
параметр. Тогда, 𝜃 ∈ (0; 1] =⇒ 𝜆 ∈ [0; +∞). Таким об-
разом, вероятность отсутствия событий на интервале длины 𝑡
задается равенством 𝑃0 (𝑡) = 𝑒−𝜆𝑡 . Смысл параметра 𝜆 мы выяс-
ним ниже. Поскольку 𝑒𝛼 − 1 = 𝛼 + ∘(𝛼) или 𝑒𝛼 = 1 + 𝛼 + ∘(𝛼),
мы можем записать равенство, которое нам в ближайшее время
пригодится: 𝑃0 (ℎ) = 1 − 𝜆 · ℎ + ∘(ℎ). Теперь докажем лемму.
13
Лемма
Доказательство
14
𝑘
∑︁
𝑃𝑘 (𝑡 + ℎ) = 𝑃𝑗 (𝑡) · 𝑃𝑘−𝑗 (ℎ) =
𝑗=0
𝑘−2
∑︁
= 𝑃𝑘 (𝑡) · 𝑃0 (ℎ) + 𝑃𝑘−1 (𝑡) · 𝑃1 (ℎ) + 𝑃𝑗 (𝑡) · 𝑃𝑘−𝑗 (ℎ);
𝑗=0
𝑘−2
∑︁ 𝑘−2
∑︁ 𝑘
∑︁
0≤ 𝑃𝑗 (𝑡) · 𝑃𝑘−𝑗 (ℎ) ≤ 𝑃𝑘−𝑗 (ℎ) = 𝑃𝑗 (ℎ) = 𝑃>1 (ℎ) = ∘(ℎ).
𝑗=0 𝑗=0 𝑗=2
То есть
𝑘−2
∑︁
𝑃𝑗 (𝑡) · 𝑃𝑘−𝑗 (ℎ) = ∘(ℎ).
𝑗=0
Значит,
𝑃𝑘 (𝑡 + ℎ) − 𝑃𝑘 (𝑡) ∘(ℎ)
= 𝜆 · 𝑃𝑘−1 (𝑡) − 𝜆 · 𝑃𝑘 (𝑡) + . (3)
ℎ ℎ
15
𝑃0 (𝑡 + ℎ) − 𝑃0 (𝑡) ∘(ℎ)
= −𝜆 · 𝑃0 (𝑡) + . (4)
ℎ ℎ
Устремив к нулю ℎ в левых и правых частях (3) и (4), получим
бесконечную систему дифференциальных уравнений:
⎧
⎪
⎪
⎪
⎪𝑃0′ (𝑡) = −𝜆 · 𝑃0 (𝑡);
⎪
⎪
⎨𝑃 ′ (𝑡) = 𝜆 · 𝑃0 (𝑡) − 𝜆 · 𝑃1 (𝑡);
⎪
1
(5)
⎪
⎪
⎪
⎪...
⎪
⎪
⎩𝑃 ′ (𝑡) = 𝜆 · 𝑃𝑘−1 (𝑡) − 𝜆 · 𝑃𝑘 (𝑡).
⎪
𝑘
Начальные условия:
𝑃1 (𝑡) = 𝜆 · 𝑡 · 𝑒−𝜆𝑡 .
16
и, учтя начальное условие 𝑃2 (0) = 0, найдем его решение:
(𝜆·𝑡)2 −𝜆·𝑡
𝑃2 (𝑡) = 2! 𝑒 . Процесс будем продолжать до тех пор, по-
ка мы не догадаемся, что вероятность появления 𝑘 событий за
время 𝑡 равна
(𝜆 · 𝑡)𝑘 −𝜆·𝑡
𝑃𝑘 (𝑡) = 𝑒 . (7)
𝑘!
Теперь, когда мы знаем результат, нетрудно обосновать его, при-
бегнув к методу математической индукции. Здесь мы пропусти-
ли собственно сам процесс решения уравнений. Первый способ
позволяет получить решение, опираясь на минимальный мате-
матический аппарат. Однако в некоторых случаях этот способ
может оказаться слишком громоздким. Теперь рассмотрим бо-
лее компактный метод решения бесконечной системы линейных
дифференциальных уравнений.
∑︀∞
Введем производящую функцию 𝜑(𝑡, 𝑧) = 𝑘=0 𝑃𝑘 (𝑡) · 𝑧 𝑘 . Заме-
тим, что из (6) следует 𝜑(0, 𝑧) = 1. В уравнениях (5) левые и
правые части соответственно индексу при 𝑃 умножим на 𝑧 𝑘 и
просуммируем отдельно левые и правые части. Тогда
∞
∑︁ ∞
∑︁ ∞
∑︁
𝑃𝑘′ (𝑡) · 𝑧 𝑘 = 𝜆 · 𝑃𝑘−1 (𝑡) · 𝑧 𝑘 − 𝜆 · 𝑃𝑘 (𝑡) · 𝑧 𝑘 ; (8)
𝑘=0 𝑘=1 𝑘=0
∞ ∞
∑︁ ∑︁ 𝜕𝜑(𝑡, 𝑧)
𝑃𝑘′ (𝑡) · 𝑧 𝑘 = ( 𝑃𝑘 (𝑡) · 𝑧 𝑘 )′𝑡 = ;
𝜕𝑡
𝑘=0 𝑘=0
∞
∑︁ ∞
∑︁
𝑃𝑘−1 (𝑡) · 𝑧 𝑘 = 𝑧 · 𝑃𝑘−1 (𝑡) · 𝑧 𝑘−1 = 𝑧 · 𝜑(𝑡, 𝑧).
𝑘=1 𝑘=1
17
Суммы в левой и правой частях (8) можно переписать в виде
𝜕𝜑(𝑡,𝑧)
𝜕𝑡 = 𝜆·(𝑧−1)·𝜑(𝑡, 𝑧), после чего решение бесконечной системы
сводится к решению одного уравнения.
𝜕𝑙𝑛(𝜑(𝑡, 𝑧))
= 𝜆 · (𝑧 − 1) =⇒ 𝑙𝑛(𝜑(𝑡, 𝑧)) = 𝜆 · (𝑧 − 1) · 𝑡 + 𝑙𝑛|𝐶|
𝜕𝑡
или
𝜑(𝑡, 𝑧) = 𝐶 · 𝑒𝜆·(𝑧−1)·𝑡 ,
∞ ∞
∑︁ (𝜆 · 𝑡)𝑘 ∑︁
𝜑(𝑡, 𝑧) = 𝑒𝜆·(𝑧−1)·𝑡 = 𝑒𝜆·𝑧·𝑡 ·𝑒−𝜆·𝑡 = 𝑒−𝜆·𝑡 ·𝑧 𝑘 = 𝑃𝑘 (𝑡)·𝑧 𝑘 .
𝑘!
𝑘=0 𝑘=0
18
Рис. 1. Распределение Пуассона
∫︁ +∞ ∫︁ +∞
1
𝑇¯ож = 𝑀 (𝑡) = 𝑓 (𝑡) · 𝑡 · 𝑑𝑡 = 𝜆 · 𝑒−𝜆·𝑡 · 𝑡 · 𝑑𝑡 =
−∞ 0 𝜆
19
– математическое ожидание времени t между двумя событиями.
∫︁ +∞ ∫︁ +∞
2
2
𝑀 (𝑡 ) = 2
𝑓 (𝑡) · 𝑡 · 𝑑𝑡 = 𝜆 · 𝑒−𝜆·𝑡 · 𝑡2 · 𝑑𝑡 =
−∞ 0 𝜆2
– математическое ожидание 𝑡2 .
1 √︀ 1
𝐷(𝑡) = 𝑀 (𝑡2 ) − (𝑀 (𝑡))2 = , 𝜎(𝑡) = 𝐷(𝑡) =
𝜆2 𝜆
∞ ∞
∑︁ ∑︁ (𝜆 · 𝑡)𝑘 −𝜆·𝑡
𝑀 (𝑘) = 𝑘 · 𝑃𝑘 (𝑡) = 𝑘· 𝑒 =
𝑘!
𝑘=0 𝑘=1
∞
∑︁ (𝜆 · 𝑡)𝑘−1
= 𝑒−𝜆·𝑡 · 𝜆 · 𝑡 𝑘· = 𝑒−𝜆·𝑡 · 𝑡 · (𝑒𝜆·𝑡 )′𝑡 =
𝑘!
𝑘=1
= 𝜆 · 𝑡.
20
Аналогично найдем математическое ожидание 𝑘 2 :
∞
2
∑︁ (𝜆 · 𝑡)𝑘 −𝜆·𝑡
𝑀 (𝑘 ) = 𝑘2 · ·𝑒 = 𝜆 · 𝑡 + (𝜆 · 𝑡)2 ,
𝑘!
𝑘=0
√︀ √
𝐷(𝑘) = 𝑀 (𝑘 2 ) − [𝑀 (𝑘)]2 = 𝜆 · 𝑡, 𝜎(𝑘) = 𝐷(𝑘) = 𝜆 · 𝑡.
21
Рис. 2. Кривая отказов технического устройства
22
Тогда
Подставим в равенство
𝑃0 (𝑡0 , 𝑡 + ℎ) − 𝑃0 (𝑡0 , 𝑡)
= −𝜆(𝑡) · 𝑃0 (𝑡0 , 𝑡) + ∘(ℎ). (11)
ℎ
Аналогично
𝑘
∑︁
𝑃𝑘 (𝑡0 , 𝑡 + ℎ) = 𝑃𝑗 (𝑡0 , 𝑡) · 𝑃𝑘−𝑗 (𝑡, 𝑡 + ℎ).
𝑗=0
𝑃𝑘 (𝑡0 , 𝑡 + ℎ) − 𝑃𝑘 (𝑡0 , 𝑡)
= −𝜆(𝑡)·[𝑃𝑘−1 (𝑡0 , 𝑡)−𝑃𝑘 (𝑡0 , 𝑡)]+∘(ℎ). (12)
ℎ
23
Устремив в (11) и (12) ℎ к нулю, получим бесконечную систему
дифференциальных уравнений:
⎧
𝜕𝑃0 (𝑡0 ,𝑡)
⎪
⎪
⎪
⎪ 𝜕𝑡 = −𝜆(𝑡) · 𝑃0 (𝑡0 , 𝑡);
⎪
⎪ 𝜕𝑃1 (𝑡0 ,𝑡)
= −𝜆(𝑡)(𝑃0 (𝑡0 , 𝑡) − 𝑃1 (𝑡0 , 𝑡));
⎪
⎪
⎨ 𝜕𝑡
⎪
⎪
... (13)
⎪
⎪
⎪ 𝜕𝑃𝑘 (𝑡0 ,𝑡)
= −𝜆(𝑡)(𝑃𝑘−1 (𝑡0 , 𝑡) − 𝑃𝑘 (𝑡0 , 𝑡));
⎪
⎪
⎪
⎪
⎪ 𝜕𝑡
⎪
⎪
⎩. . .
𝜕𝑃𝑘 (𝑡0 , 𝑡)
∀ 𝑘≥0 = 𝜆(𝑡) · [𝑃𝑘−1 (𝑡0 , 𝑡) − 𝑃𝑘 (𝑡0 , 𝑡)]. (14)
𝜕𝑡
∞
∑︁
𝜑(𝑡0 , 𝑡, 𝑧) = 𝑃𝑘 (𝑡0 , 𝑡) · 𝑧 𝑘 . (15)
𝑘=0
∞ ∞
∑︁ 𝜕𝑃𝑘 (𝑡0 , 𝑡) 𝑘
∑︁
· 𝑧 = 𝜆(𝑡) · [ 𝑃𝑘−1 (𝑡0 , 𝑡)𝑧 𝑘 − 𝑃𝑘 (𝑡0 , 𝑡)𝑧 𝑘 ],
𝜕𝑡
𝑘=0 𝑘=0
𝜕𝜑(𝑡0 , 𝑡, 𝑧) 𝜕 ln 𝜑(𝑡0 , 𝑡, 𝑧)
= 𝜆(𝑡)·𝜑(𝑡0 , 𝑡, 𝑧)·(𝑧−1), = 𝜆(𝑡)·(𝑧−1).
𝜕𝑡 𝜕𝑡
24
Проинтегрируем последнее равенство по 𝑡:
∫︁ 𝑡
ln(𝜑(𝑡0 , 𝑡, 𝑧)) − 𝑙𝑛(𝜑(𝑡0 , 𝑡0 , 𝑧)) = (𝑧 − 1) · 𝜆(𝑡)𝑑𝑡.
𝑡0
Из начальных условий:
𝑃0 (𝑡0 , 𝑡0 ) = 1, 𝑃1 (𝑡0 , 𝑡0 ) = · · · = 𝑃𝑘 (𝑡0 , 𝑡0 ) = · · · = 0 следует
∫︀ 𝑡
𝜑(𝑡0 , 𝑡0 , 𝑧) = 1. Введем обозначение Λ(𝑡0 , 𝑡) = 𝑡0 𝜆(𝑡) · 𝑡. Тогда
¯ · 𝜏 ]𝑘
[𝜆 ¯
𝑃𝑘 (𝑡0 , 𝑡) = · 𝑒−𝜆·𝜏 .
𝑘!
25
Глава 2. Марковская модель СМО
26
без последействия. Мы будем считать процесс функционирова-
ния СМО марковским. Хотя марковская модель СМО не являет-
ся единственно возможной, она достаточно адекватно отражает
широкий класс реальных систем.
27
тий, произошедших до момента 𝑡. Каждая реализация такого
случайного процесса представляет собой ступенчатую функцию
(рис. 3), значение которой увеличивается на единицу с появле-
нием очередного события.
28
§ 2.1. Уравнения Колмогорова
𝑛
∑︁ ∑︁
𝑃𝑘𝑖 (ℎ) = 1, откуда 𝑃𝑘𝑘 (ℎ) = 1 − 𝑃𝑘𝑖 (ℎ).
𝑖=1 𝑖̸=𝑘
29
Подставим в последнюю формулу значения из (18), получим:
∑︁
𝑃𝑘 (𝑡 + ℎ) = 𝑃𝑖 (𝑡)(𝜆𝑖𝑘 · ℎ + ∘(ℎ)) +
𝑖̸=𝑘
∑︁
+ 𝑃𝑘 (𝑡) · (1 − (𝜆𝑘𝑖 · ℎ + ∘(ℎ))) =
𝑖̸=𝑘
∑︁ ∑︁
= 𝜆𝑖𝑘 · ℎ · 𝑃𝑖 (𝑡) + 𝑃𝑘 (𝑡) · (1 − 𝜆𝑘𝑖 · ℎ) + ∘(ℎ).
𝑖̸=𝑘 𝑖̸=𝑘
𝑃𝑘 (𝑡 + ℎ) − 𝑃𝑗 (𝑡) ∑︁ ∑︁
Отсюда = 𝜆𝑖𝑗 · 𝑃𝑖 (𝑡) − 𝜆𝑘𝑖 𝑃𝑘 (𝑡).
ℎ
𝑖̸=𝑘 𝑖̸=𝑘
30
тором исходном состоянии.
31
двумя соседними заявками. Таким образом, для вероятностей
переходов выполняются равенства (18):
32
система готова принять заявку. Подставив в первое уравнение
Решение
𝑑𝑃0
= −(𝜆 + 𝜇) · 𝑑𝑡 = 0 =⇒ 𝑙𝑛𝑃0 (𝑡) = −(𝜆 + 𝜇) · 𝑡 + 𝑙𝑛 | 𝐶 |,
𝑃0
где 𝐶 − 𝑐𝑜𝑛𝑠𝑡 . Тогда 𝑃0 (𝑡) = 𝐶 · 𝑒−(𝜆+𝜇)·𝑡 .
𝜇
𝑃0 (𝑡) = 𝐶 · 𝑒−(𝜆+𝜇)·𝑡 + .
𝜆+𝜇
1
𝑃0 (𝑡) = · (𝜇 + 𝜆 · 𝑒−(𝜆+𝜇)·𝑡 ).
𝜆+𝜇
33
𝑃1 (𝑡) найдем как 1 − 𝑃0 (𝑡) и представим результат в виде
⎧
⎨𝑃0 (𝑡) = 1
𝜆+𝜇 · (𝜇 + 𝜆 · 𝑒−(𝜆+𝜇)·𝑡 );
(21)
⎩𝑃 (𝑡) =
1
𝜆
𝜆+𝜇 · (1 − 𝑒−(𝜆+𝜇)·𝑡 ).
𝜇 𝜆
Заметим, что lim 𝑃0 (𝑡) = , lim 𝑃1 (𝑡) = .
𝑡→+∞ 𝜆 + 𝜇 𝑡→+∞ 𝜆+𝜇
𝜇
Значения 𝑃0 (𝑡) = 𝜆+𝜇 и 𝑃1 (𝑡) = 𝜆
𝜆+𝜇 называют установивши-
мися решениями, а также предельными вероятностями,
или стационарными вероятностями. В установившихся ре-
шениях после 𝑃𝑘 мы не пишем в скобках 𝑡.
На рис. 5 представлены графики вероятностей состояний систе-
мы на временном интервале [0; 2]. Как видно, графики очень
быстро сливаются с асимптотами. В таких случаях часто сосре-
дотачивают внимание на установившихся решениях. И все же
иногда, например, когда речь идет о запуске космического ко-
рабля, крайне важно поведение системы именно на начальном
временном интервале. На графиках представлены три решения
при различных отношениях между интенсивностью входящего
потока заявок и интенсивностью обслуживания и, соответствен-
но, три варианта установившегося решения:
34
Рис. 5. Одноканальная СМО с отказами: a) 𝜆=4 и 𝜇 = 2, b) 𝜆=2 и 𝜇 = 4,
c) 𝜆=3 и 𝜇=3
35
вить условие 𝑃𝑘 = 1.
∑︀
𝑘
Для рассмотренной в этом параграфе СМО система уравнений
примет вид ⎧
⎨−𝜆 · 𝑃0 (𝑡) + 𝜇𝑃1 = 0;
(22)
⎩𝑃 (𝑡) + 𝑃 = 1.
0 1
1
𝑇¯Обсл = .
𝜇
𝜇
В пределе 𝑄 = 𝑃0 = .
𝜆+𝜇
36
4. Абсолютная пропускная способность 𝐴(𝑡) = 𝜆 · 𝑄(𝑡) =
= 𝜆 · 𝑃0 (𝑡) – среднее число обслуживаемых в единицу вре-
мени заявок.
𝜆·𝜇
В пределе 𝐴 = 𝜆·𝑃0 = .
𝜆+𝜇
𝜆
В пределе 𝑃отк = .
𝜆+𝜇
𝜆·𝜇
𝐴 = 𝜆 · 𝑃0 =
𝜆+𝜇
𝜆2
𝐴 = 𝜆 · 𝑃1 =
𝜆+𝜇
37
§ 2.3. Дублированная СМО с восстановлением
38
Колмогорова:
⎧
⎪𝑃 ′ (𝑡) = −𝜆 · 𝑃0 (𝑡) + 𝜇 · 𝑃1 (𝑡);
⎨ 0
⎪
⎪
𝑃1′ (𝑡) = 𝜆 · 𝑃0 (𝑡) − (𝜆 + 𝜇) · 𝑃1 (𝑡); (23)
⎪
⎪
⎩ ′
⎪
𝑃2 (𝑡) = 𝜆 · 𝑃1 (𝑡).
𝑘 2 + (2 · 𝜆 + 𝜇) · 𝑘 + 𝜆2
39
и найдем его корни:
𝐷 = 4𝜆𝜇 + 𝜇2 ;
√︀
−(2 · 𝜆 + 𝜇) − 4𝜆𝜇 + 𝜇2
𝑘1 = < 0;
2 √︀
−(2 · 𝜆 + 𝜇) + 4𝜆𝜇 + 𝜇2
𝑘2 = .
2
40
и возьмем производную
𝜆 −𝑎𝑡
𝑃1 (𝑡) = ·𝑒 · (𝑒𝑏𝑡 − 𝑒−𝑏𝑡 ).
2𝑏
1 𝜇 𝜇
𝑃0 (𝑡) = · 𝑒−𝑎𝑡 · ((𝑏 + ) · 𝑒𝑏𝑡 + (𝑏 − ) · 𝑒−𝑏𝑡 ).
2𝑏 2 2
1 −𝑎𝑡
𝑅(𝑡) = 𝑃0 (𝑡) + 𝑃1 (𝑡) = ·𝑒 · ((𝑎 + 𝑏) · 𝑒𝑏𝑡 − (𝑎 − 𝑏) · 𝑒−𝑏𝑡 ). (26)
2𝑏
41
Чтобы найти вероятность безотказной работы соответствующей
СМО с резервом без восстановления, достаточно устремить к ну-
лю 𝜇.
2𝜆+𝜇
lim 𝑒− 2 = 𝑒−𝜆·𝑡 ;
𝜇→0
√︀
4𝜆𝜇 + 𝜇2
lim 𝑐ℎ( · 𝑡) = 1;
𝜇→0 2
√︀
4𝜆𝜇 + 𝜇2 √︀ 𝑠ℎ(𝑏 · 𝑡)
lim 𝑠ℎ( )/ 4𝜆𝜇 + 𝜇2 = lim =
𝜇→0 2 𝑏→0 2𝑏
𝑒𝑏𝑡 − 𝑒−𝑏𝑡 𝑡 · (𝑒𝑏𝑡 − 𝑒−𝑏𝑡 ) 𝑡
= lim = lim = .
𝑏→0 4𝑏 𝑏→0 4 2
Следовательно,
42
немся к более компактной, чем (28), формуле (26). Тогда
𝜆2
𝑓 (𝑡) = · (𝑒−(𝑎−𝑏)·𝑡 − 𝑒−(𝑎+𝑏)·𝑡 ).
2𝑏
∞
𝜆2
∫︁
1 1
𝑇¯сист = 𝑀 (𝑡) = 𝑡 · 𝑓 (𝑡) · 𝑑𝑡 = ·( 2
− ).
0 2𝑏 (𝑎 − 𝑏) (𝑎 + 𝑏)2
2 𝜇
𝑇¯сист = + 2 .
𝜆 𝜆
𝜇
Здесь – увеличение наработки системы на отказ за счет вос-
𝜆2
становления. При 𝜇 = 0 значение 𝑇¯сист = 𝜆2 = 2 · 𝑇¯отк . То есть
наработка на отказ системы без восстановления равна сумме на-
работок на отказ основного и резервного устройств. Тот же ре-
зультат можно получить, взяв
43
§ 2.4. СМО с приоритетными заявками
44
Рис. 8. СМО с приоритетами
45
служивание, но не обслуженные по вине приоритетных.
Составим систему уравнений Колмогорова:
⎧
′
⎪𝑃0 (𝑡) = (𝜆1 + 𝜆2 ) · 𝑃0 (𝑡) + 𝜇1 · 𝑃1 (𝑡) + 𝜇2 · 𝑃2 (𝑡);
⎪
⎪
⎨
𝑃1′ (𝑡) = 𝜆1 · 𝑃0 (𝑡) − (𝜇 + 𝜆2 ) · 𝑃1 (𝑡); (28)
⎪
⎪
⎩ ′
⎪
𝑃2 (𝑡) = 𝜆2 · 𝑃0 (𝑡) + 𝜆2 · 𝑃1 (𝑡) − 𝜇2 · 𝑃2 (𝑡).
𝑃0 (𝑡) = 𝛼 · 𝑒−𝑘𝑡 ;
𝑃1 (𝑡) = 𝛽 · 𝑒−𝑘𝑡 ;
𝑃2 (𝑡) = 𝛾 · 𝑒−𝑘𝑡 . (29)
𝑘 · (𝑘 + 𝜇2 + 𝜆2 ) · (𝑘 + 𝜇1 + 𝜆1 + 𝜆2 ).
46
щественных корня:
𝑘1 = 0, 𝑘2 = −(𝜆2 + 𝜇2 ) и 𝑘3 = −(𝜆1 + 𝜆2 + 𝜇1 ).
1. 𝑘1 = 0 :
⎧
⎧ ⎪
⎪𝛼 = 𝜇2 · (𝜆2 + 𝜇1 );
⎨(𝜆1 + 𝜆2 )𝛼 − 𝜇1 · 𝛽 = 𝜇2 · 𝛾; ⎪
⎨
=⇒ 𝛽 = 𝜆1 · 𝜇1 ;
⎩−𝜆 · 𝛼 + (𝜇 + 𝜆 ) · 𝛽 = 0; ⎪
1 1 2 ⎪
⎪
𝛾 = 𝜆2 · (𝜆1 + 𝜆2 + 𝜇1 ).
⎩
2. 𝑘2 = −𝜆2 − 𝜇2 :
⎧
⎧ ⎪
⎪𝛼 = 𝜇1 − 𝜇 2 ;
⎨(𝜆1 − 𝜇2 )𝛼 − 𝜇1 · 𝛽 = 𝜇2 · 𝛾; ⎪
⎨
=⇒ 𝛽 = 𝜆1 ;
⎩−𝜆 · 𝛼 + (𝜇 − 𝜇 ) · 𝛽 = 0; ⎪
1 1 2 ⎪
⎪
𝛾 = −𝜆1 − 𝜇1 + 𝜇2 .
⎩
3. 𝑘3 = −𝜆1 − 𝜆2 − 𝜇1 :
⎧
⎧ ⎪
⎪𝛼 = 1;
⎨𝜇1 · 𝛼 − 𝜇1 · 𝛽 = 𝜇2 · 𝛾; ⎪
⎨
=⇒ 𝛽 = −1;
⎩−𝜆 · 𝛼 + (𝜇 − 𝜇 ) · 𝛽 = 0; ⎪
1 1 2 ⎪
⎪
𝛾 = 0.
⎩
47
Тогда общее решение системы (28) примет вид
⎛ ⎞ ⎛ ⎞
𝑃0 (𝑡) 𝜇2 · (𝜆2 + 𝜇1 )
⎜ ⎟ ⎜ ⎟
⎜𝑃1 (𝑡)⎟ = 𝐶1 · ⎜ 𝜆 · 𝜇 2
⎟+
⎝ ⎠ ⎝ ⎠
𝑃2 (𝑡) 𝜆2 · (𝜆1 + 𝜆2 + 𝜇1 )
⎛ ⎞
𝜇 1 − 𝜇2
+𝐶2 · 𝑒−(𝜆2 +𝜇2 )·𝑡 · ⎜
⎜ ⎟
𝜆1 ⎟+
⎝ ⎠
−𝜆1 − 𝜇1 + 𝜇2
⎛ ⎞
1
−(𝜆1 +𝜆2 +𝜇1 )𝑡 ⎜
(30)
⎜ ⎟
+ 𝐶3 · 𝑒 · ⎝−1⎟
⎠,
0
48
шение. К сожалению, запись уравнений оказалась слишком гро-
моздкой, но тем не менее мы получили аналитическое решение
путем ряда довольно стандартных, рутинных операций, которые
любой человек, знакомый с основами теории дифференциальных
уравнений, легко может проделать. Аналитическое решение от-
крывает нам большие возможности теоретического исследования
различных режимов работы системы.
49
Рис. 9. Вероятности состояний СМО с приоритетным входным потоком
50
вероятности искомая вероятность
∫︁ +∞
𝜇1
𝜇1 · 𝑒−(𝜆2 +𝜇1 )·𝑡 · 𝑡 = .
0 𝜆2 + 𝜇1
𝜇1 𝜇1 · 𝜇2
𝑃обычн_обсл = 𝑃0 · = ;
(𝜆2 + 𝜇1 ) (𝜆1 + 𝜆2 + 𝜇1 ) · (𝜆2 + 𝜇2 )
𝜆2 𝜆2 · 𝜇2
𝑃обычн_прерв = 𝑃0 · = .
(𝜆2 + 𝜇1 ) (𝜆1 + 𝜆2 + 𝜇1 ) · (𝜆2 + 𝜇2 )
1 1
𝑇¯Ожид_об = , в приоритетном потоке 𝑇¯Ожид_пр = .
𝜆1 𝜆2
51
2. Ожидаемое время обслуживания обычной заявки
1 1
𝑇¯обсл_об = и приоритетной 𝑇¯обсл_пр = .
𝜇1 𝜇2
𝜆 2 · 𝜇2
𝐴пр = 𝜆2 · 𝑄пр =
𝜆2 + 𝜇 2
𝜇2 𝜇1
𝑄об = 𝑃обыч_обсл = ·
𝜆2 + 𝜇2 𝜆1 + 𝜆2 + 𝜇1
52
6. Абсолютная пропускная способность по обычным за-
явкам
𝜇2 𝜇1
𝐴об = 𝑃обыч_обсл · 𝜆1 = 𝜆1 · ·
𝜆2 + 𝜇2 𝜆1 + 𝜆2 + 𝜇1
𝜆22
𝑃2 · 𝜆2 =
𝜆 2 + 𝜇2
𝜇2 · (𝜆2 + 𝜇1 )
(1 − 𝑃0 ) · 𝜆1 = (1 − ) · 𝜆1
(𝜆1 + 𝜆2 + 𝜇1 )(𝜆2 + 𝜇2 )
53
9. Интенсивность выходящего потока обычных заявок,
принятых на обслуживание, но не обслуженных по
причине появления приоритетной заявки
𝜆 1 · 𝜆 2 · 𝜇2
𝑃обыч_прер · 𝜆1 =
(𝜆1 + 𝜆2 + 𝜇1 )(𝜆2 + 𝜇2 )
4 ИТОГО 4 1
54
Глава 3. Процессы гибели и размножения
55
бели и размножения. Согласно схеме первое уравнение
далее
𝑃𝑘′ (𝑡) = 𝜆𝑘−1,𝑘 · 𝑃𝑘−1 (𝑡) − (𝜆𝑘,𝑘−1 + 𝜆𝑘,𝑘+1 ) · 𝑃𝑘 (𝑡) + 𝜆𝑘+1,𝑘 · 𝑃𝑘+1 (𝑡),
56
принимает вид
⎧
⎪
⎪
⎪
⎪−𝜆01 · 𝑃0 + 𝜆10 · 𝑃1 = 0;
⎪
⎪
⎨𝜆01 · 𝑃0 − (𝜆10 + 𝜆12 ) · 𝑃1 + 𝜆21 𝑃2 = 0;
⎪
⎪
⎪
⎪
⎪...
⎪
⎪
⎩𝜆𝑘−1,𝑘 · 𝑃𝑘−1 − (𝜆𝑘,𝑘−1 + 𝜆𝑘,𝑘+1 ) · 𝑃𝑘 + 𝜆𝑘+1,𝑘 𝑃𝑘+1 = 0.
⎪
𝑧0 = 0, 𝑧0 − 𝑧1 = 0, ... 𝑧𝑘−1 − 𝑧𝑘 = 0 .
𝑧0 = 𝑧1 = · · · = 𝑧𝑘 = · · · = 0
𝜆𝑘,𝑘+1
и, следовательно, 𝑃𝑘+1 = 𝜆𝑘+1,𝑘 · 𝑃𝑘 , где 𝑘 > 0. По индукции
получим выражение предельных вероятностей через
𝑘−1
∏︁ 𝑘−1
∏︁
𝑃𝑘 = ( 𝜆𝑖,𝑖+1 / 𝜆𝑖+1,𝑖 ),
𝑖=0 𝑖=0
𝑘−1
∏︁ 𝑘−1
∏︁
𝛼𝑘 = ( 𝜆𝑖,𝑖+1 / 𝜆𝑖+1,𝑖 ),
𝑖=0 𝑖=0
57
интенсивностей всех переходов, ведущих справа налево от 𝑆𝑘 .
Если положить 𝛼0 = 0 , то из условия 𝑛𝑘=0 𝑃𝑘 = 1 непосред-
∑︀
ственно следует
𝑛
∑︁ 𝑛
∑︁
𝛼𝑘 · 𝑃0 = 1 =⇒ 𝑃0 = ( 𝛼𝑘 )−1 .
𝑘=0 𝑘=0
𝑛
∑︁
𝑃𝑘 = 𝛼𝑘 · ( 𝛼𝑘 )−1 . (33)
𝑘=0
58
видно на схеме (рис. 11), интенсивности переходов по возраста-
нию индекса совпадают с интенсивностью входящего потока, а
интенсивности переходов по убыванию индекса зависят от ин-
декса состояния.
𝜆𝑘
Применим формулы Эрланга 𝛼0 = 1 и 𝛼𝑘 = 1·2·...·𝑘·𝜇𝑘
для k>0.
Введем обозначения 𝜌 = 𝜆
𝜇 – приведенная интенсивность входя-
щего потока или нагрузка системы.
Тогда
𝑛
𝜌𝑘 ∑︁ 𝜌𝑘 −1
𝛼𝑘 = , где 𝑘 = 0, 1, . . . , 𝑛, 𝑃0 = ( ) .
𝑘! 𝑘!
𝑘=0
59
Характеристики многоканальной СМО с отказами
𝑄 = 1 − 𝑃𝑛
𝐴 = 𝑄 · 𝜆 = (1 − 𝑃𝑛 ) · 𝜆.
𝑛 𝑛 𝑛
¯ = 𝑀 (𝑘) =
∑︁ ∑︁ ∑︁ 𝜌𝑘
𝐾 𝑘 · 𝑃𝑘 = 𝑘 · 𝑃𝑘 = 𝑘 · 𝑃0 =
𝑘!
𝑘=0 𝑘=1 𝑘=1
𝑛 𝑛−1
∑︁ 𝜌𝑘−1 ∑︁ 𝜌𝑘
= 𝜌· · 𝑃0 = 𝜌 · · 𝑃0 =
(𝑘 − 1)! 𝑘!
𝑘=1 𝑘=0
𝑛−1
∑︁
= 𝜌· 𝑃𝑘 = 𝜌 · (1 − 𝑃𝑛 ).
𝑘=0
60
на относительную пропускную способность системы.
𝑁¯0 = 𝑛 − 𝐾.
¯
¯ .
6. Коэффициент занятости каналов 𝐾/𝑛
В этом случае
∞
∑︁ 𝜌𝑘 −1 𝜌𝑘 −𝜌
𝑃0 = ( ) = 𝑒−𝜌 , 𝑃𝑘 = ·𝑒 .
𝑘! 𝑘!
𝑘=0
∞ ∞ ∞
∑︁ ∑︁ 𝜌𝑘 −𝜌 ∑︁ 𝜌𝑘−1
¯ =
𝐾 𝑘 · 𝑃𝑘 = 𝑘 ·𝑒 =𝜌 · 𝑒−𝜌 =
𝑘! (𝑘 − 1)!
𝑘=0 𝑘=1 𝑘=1
∞ ∞
∑︁ 𝜌𝑘 ∑︁ 𝜌𝑘 ′ −𝜌
= 𝜌· ( )′𝜌 · 𝑒−𝜌 = 𝜌 · ( ) · 𝑒 = 𝜌 · (𝑒𝜌 )′𝜌 · 𝑒−𝜌 = 𝜌.
𝑘! 𝑘! 𝜌
𝑘=1 𝑘=1
61
Таким образом, среднее число занятых каналов в «бесконечно-
канальной» СМО 𝐾 ¯ = 𝜌 определяется только отношением ин-
тенсивности входящего потока к интенсивности обслуживания.
очереди
62
Формулы Эрланга теперь примут вид
∞
𝜆𝑘 ∑︁
𝛼𝑘 = = 𝜌𝑘 , где 𝑘 = 0, 1, 2 . . . ; 𝑃0 = ( 𝜌𝑘 )−1 = 1 − 𝜌.
𝜇𝑘
𝑘=0
63
вероятность длины k равна 𝑃𝑘+1 . Таким образом,
∞
¯ оч = 𝑀 (𝑘) =
∑︁
𝐿 𝑘 · 𝑃𝑘+1 =
𝑘=1
∞
∑︁ ∞
∑︁
= (1 − 𝜌) 𝑘 · 𝜌𝑘+1 = (1 − 𝜌) · 𝜌2 · 𝑘 · 𝜌𝑘−1 =
𝑘=1 𝑘=1
∞
∑︁ 𝜌 ′ 𝜌2
= (1 − 𝜌) · 𝜌2 · ( 𝜌𝑘 )′𝜌 = (1 − 𝜌) · 𝜌2 · ( )𝜌 = .
1−𝜌 1−𝜌
𝑘=1
∞ ∞
𝑇¯оч = 𝑃 (𝑆𝑘 ) · 𝑀 (𝑇оч /𝑆𝑘 ) = 𝑃𝑘 · 𝑀 (𝑇оч /𝑆𝑘 ) =
∑︁ ∑︁
𝑘=0 𝑘=1
∞ ∞
∑︁ 𝑘 1 − 𝜌 ∑︁ 𝜌
= 𝑃𝑘 · = · 𝑘 · 𝜌𝑘 = .
𝜇 𝜇 𝜇(1 − 𝜌)
𝑘=1 𝑘=1
¯ оч = 𝜆 · 𝑇¯оч .
Отсюда – первая формула Литтла: 𝐿
Среднее время пребывания заявки в системе равно сумме сред-
него времени пребывания в очереди и среднего времени обслу-
64
живания:
𝜌 1
𝑇¯сис = 𝑇¯оч + 𝑇¯обс = + .
𝜇(1 − 𝜌) 𝜇
¯ обсл =
Среднее число заявок, находящихся под обслуживанием, 𝐿
= 1 − 𝑃0 = 𝜌. Тогда среднее число находящихся в системе заявок
¯ сис = 𝐿
¯ оч + 𝐿
¯ обс = 𝜌2 𝜌
𝐿 +𝜌= .
1−𝜌 1−𝜌
¯ оч = 𝜆 · 𝑇¯оч ,
𝐿 ¯ сис = 𝜆 · 𝑇¯сис .
𝐿 (34)
65
§ 3.4. Одноканальная СМО с ограничением на длину
очереди
Формулы Эрланга:
𝑛+1
𝜆𝑘 ∑︁
𝛼𝑘 = 𝑘 = 𝜌𝑘 , где 𝑘 = 0, 1, 2 . . . , 𝑛 + 1; 𝑃0 = ( 𝜌𝑘 )−1 .
𝜇
𝑘=0
𝑛 𝑛
¯ оч = 𝑀 (𝑘) =
∑︁ ∑︁
𝐿 𝑘 · 𝑃𝑘+1 = 𝑃0 · 𝑘 · 𝜌𝑘+1 . (35)
𝑘=1 𝑘=1
66
Аналогично тому, как это делалось в предыдущем параграфе,
¯ сис , 𝑇¯оч , 𝑇¯сис . Разумеется, формулы Литт-
¯ обс , 𝐿
нетрудно найти 𝐿
ла также выполняются.
𝜆𝑘
𝛼0 = 1, 𝛼𝑘 = ∏︀𝑘 = 𝜌𝑘 , для 𝑘 > 0;
𝑖=1 (𝜇 + (𝑖 − 1) · 𝜔)
𝑛+1
∑︁
𝑃0 = ( 𝜌𝑘 )−1 , 𝑃𝑘 = 𝛼𝑘 · 𝑃0 .
𝑘=0
67
дов 𝛽 = 𝜇.
𝜔
Тогда
𝜌𝑘
𝛼𝑘 = ∏︀𝑘 .
𝑖=1 (1 + (𝑖 − 1) · 𝛽)
68
𝜇 . Величину 1/𝜆 в теории надежности называют наработкой
на отказ. Такие системы называют замкнутыми, или системами
Энгсета (рис. 15).
Формулы Эрланга:
𝑘!
𝛼0 = 1 и 𝛼𝑘 = · 𝜌𝑘 , для 𝑘 = 1, 2 . . . 𝑛;
(𝑛 − 𝑘)!
𝑛
∑︁
𝑃0 = ( 𝜌𝑘 )−1 , 𝑃𝑘 = 𝛼𝑘 · 𝑃0 .
𝑘=0
¯ пас )·𝜆 =⇒
Λ̄ = 𝐴 = (1−𝑃0 )·𝜇 = (𝑛− 𝑁 ¯ пас = 𝑛− 1 − 𝑃0 .
𝑁
𝜌
69
Здесь
¯ пас = 𝐿сис ;
𝑁
¯ оч = 𝐿
𝐿 ¯ сис − 𝐿
¯ обсл =
1 − 𝑃0 1
= 𝑛− − (1 − 𝑃0 ) = 𝑛 − (1 − 𝑃0 ) · ( + 1).
𝜌 𝜌
¯ сис
𝐿 ¯ оч
𝐿
𝑃акт = 1 − ; 𝑇¯оч = .
𝑛·𝜆 Λ̄
70
***
71
Биографические справки
72
ского Труда, лауреат Ленинской и Государственной премий СССР,
профессор МГУ, иностранный член Национальной академии на-
ук США, член Лондонского королевского общества, член Гер-
манской академии естествоиспытателей и многих других акаде-
мий и научных обществ мира. Внес значительный вклад в раз-
витие теории марковских процессов с непрерывным временем.
73
лауреат Сталинской премии 1941 года. Является (совместно с
А. Н. Колмогоровым) создателем современной теории случай-
ных процессов и теории массового обслуживания. В молодости
Александр Яковлевич опубликовал четыре небольших сборника
своих стихов.
74
Список литературы
75
Учебное издание
Редактор Е. Е. Порывакина
Компьютерная верстка Е. К. Белого