Вы находитесь на странице: 1из 12

Math-Net.

Ru
Общероссийский математический портал

А. А. Дорофеюк, Е. В. Бауман, Ю. А. Дорофеюк,


А. Л. Чернявский, Рекуррентные алгоритмы структурно-
классификационного анализа сложно организованной ин-
формации, Автомат. и телемех., 2018, выпуск 10, 143–
153

Использование Общероссийского математического портала Math-Net.Ru подра-


зумевает, что вы прочитали и согласны с пользовательским соглашением
http://www.mathnet.ru/rus/agreement

Параметры загрузки:
IP: 185.91.211.70
3 апреля 2024 г., 20:36:15
Автоматика и телемеханика, № 10, 2018


c 2018 г. А.А. ДОРОФЕЮК , д-р техн. наук,
Е.В. БАУМАН, д-р техн. наук (bauman52@mail.ru)
(Markov Processes International, Нью-Йорк),
Ю.А.ДОРОФЕЮК, канд. техн. наук (dorofeyuk_julia@mail.ru),
А.Л. ЧЕРНЯВСКИЙ канд. техн. наук (achern@ipu.ru)
(Институт проблем управления им. В.А.Трапезникова РАН, Москва)

РЕКУРРЕНТНЫЕ АЛГОРИТМЫ
СТРУКТУРНО-КЛАССИФИКАЦИОННОГО АНАЛИЗА
СЛОЖНО ОРГАНИЗОВАННОЙ ИНФОРМАЦИИ1

Для структурно-классификационного анализа сложно организованной


информации предлагается использовать рекуррентные алгоритмы типа
стохастической аппроксимации. Вводятся в рассмотрение функционалы
оценки качества классификации, зависящие от ненормированных и нуле-
вых моментов функций распределения вероятности появления объектов
выборки в классах, а также вид оптимальной классификации. Предло-
жен новый алгоритм классификации для такого типа критериев качества
классификации, доказана теорема о его сходимости, обеспечивающая ста-
ционарное значение соответствующего функционала. Показано, что пред-
ложенный алгоритм может использоваться для решения широкого класса
задач структурно-классификационного анализа.
Ключевые слова: структурно-классификационный анализ информации,
размытая классификация, рекуррентные алгоритмы, стохастическая ап-
проксимация, типы размытости, структуризация параметров, кластер-
ный анализ, кусочная аппроксимация сложных функций.

1. Введение
Классификационный анализ структурированных массивов данных часто
приходится проводить для бесконечной выборки исследуемой информации.
В этом случае актуальным является создание последовательных (рекуррент-
ных) алгоритмов оптимизации определенного критерия качества такой клас-
сификации, когда на каждом шаге решающее правило пересчитывается по
решающему правилу с предыдущего шага и нового объекта выборки [1].
Для создания и исследования рекуррентных алгоритмов широко исполь-
зуются методы стохастической аппроксимации. По-видимому, впервые метод
стохастической аппроксимации был описан в работе Роббинса и Монро [2]
и практически одновременно рассмотрен Кифером и Вольфовицем [3]. За
прошедшие более чем 60 лет вышло огромное количество публикаций, посвя-
щенных методам стохастической аппроксимации, в которых анализируются
1
Работа выполнена при частичной финансовой поддержке Российского фонда фунда-
ментальных исследований (проекты 17-07-00857, 16-07-00895, 16-29-12880-офи, 16-29-12943-
офи, 15-07-06713).

143
как теоретические аспекты (например, исследование сходимости соответст-
вующих алгоритмов), так и специфика использования процедур стохастиче-
ской аппроксимации при решении разнообразных прикладных задач. Подроб-
нее с основными направлениями и этапами развития методов стохастической
аппроксимации можно ознакомиться в обзорах [4–6].
На базе вариационного подхода, разработанного авторами, был создан и
теоретически исследован набор рекуррентных алгоритмов типа стохастиче-
ской аппроксимации, предназначенных для решения разнообразных задач
структурного анализа данных. Исследование проводится для размытой по-
становки задачи структуризации, обобщающей многие частные постановки
задач структурно-классификационного анализа [1]. Для оценки качества раз-
мытой классификации используется широкий класс выпуклых функциона-
лов, включающий значительную часть известных критериев качества клас-
сификации. Так, например, в него входят как частные случаи критерии каче-
ства для следующих известных задач: размытой кластеризации с фоновым
классом, экстремальной группировки параметров, диагонализации матрицы
связи, классификации в нечисловых шкалах, кусочно-линейной аппроксима-
ции сложных функций [1].
В качестве типового примера использования процедур стохастической ап-
проксимации в задачах структурно-классификационного анализа рассмат-
ривается задача кластеризации многомерных объектов (точек многомерно-
го евклидова пространства) для критерия, зависящего от ненормированных
моментов кластеров. Отметим, что это достаточно трудная математическая
задача, поскольку в отличие от аналогичных задач распознавания образов
здесь не удается напрямую использовать классические методы стохастиче-
ской аппроксимации, например процедуры типа Робинса–Монро. Основная
причина этого состоит в том, что отсутствие априорного задания классов
(как, например, в задачах распознавания образов) приводит к невыпуклости
используемого функционала (критерия качества). Именно поэтому попыт-
ки использования классических алгоритмов стохастической аппроксимации
для решения задач типа кластерного анализа (см., например, [7]) оказались
неудачными. Благодаря использованию вариационного подхода удалось най-
ти такую форму оптимизируемого критерия и такой математический аппа-
рат, адекватно описывающий схему его экстремизации, что стало возможным
использование методов стохастической аппроксимации при исследовании схо-
димости соответствующих алгоритмов для бесконечной выборки.
Рассмотрены также наиболее используемые типы размытости в приклад-
ных задачах структурно-классификационного анализа.

2. Постановка задачи
Пусть необходимо определить структуру произвольного множества X с за-
данным на нем законом распределения вероятностей P (A), (A ∈ X). В зави-
симости от конкретной постановки задачи классифицируется либо множество
точек евклидова пространства, либо множество с заданной мерой близости
между точками, либо множество, на котором заданы бинарные, номиналь-
ные или ранговые шкалы, либо некоторый набор параметров, описывающих
144
исследуемое множество объектов, либо, наконец, это может быть множество
вершин некоторого графа.
Далее рассматривается (как наиболее общая) размытая постановка зада-
чи структурно-классификационного анализа. Во многих прикладных задачах
приходится классифицировать объекты достаточно удаленные от объектов,
принадлежащих всем «компактным» классам (кластерам). Такая ситуация
возникает, например, при грубых ошибках наблюдений или при неправильно
выбранном числе классов (заниженном по отношению к «истинному»). Имен-
но поэтому вводится в рассмотрение специальный класс, в пределах которого
не учитывается близость объектов друг к другу. Такой класс называют «фо-
новым».
Структура ищется как определенная классификация, которая задается
вектор-функцией H(x) = (h0 (x), h1 (x), . . . , hr (x)), где h0 (x) — функция при-
надлежности x к фоновому классу, а hi (x) — функция принадлежности x
к i-му не фоновому классу. Функция H(x) удовлетворяет следующим усло-
виям: H(•) ∈ L2 (X, P ), и для любого x значение H(x) принадлежит неко-
торому ограниченному множеству V пространства значений вектор-функ-
ции H(x), т.е. H(x) ∈ V ⊆ Rk . Множество V определяет тип размытости для
рассматриваемой задачи (фактически — тип нормировки функций принад-
лежности hi (x)).
Задача структурного анализа ставится следующим образом: необходимо
найти такую структуру (классификацию) исследуемого множества объектов,
задаваемую вектор-функцией H (x), которая обеспечила бы экстремальное
(далее для определенности — максимальное) значение критерия качества
структуризации (функционала) Φ (H):

Hopt = arg max Φ (H) .


H∈V

Оказывается, что основным ограничением на функционал Φ (H) является


его выпуклость, т.е.
' ( ' ( ' (
(1) Φ γ H (1) (x) + (1 − γ) H (2) (x) ≥ γ Φ H (1) (x) + (1 − γ) Φ H (2) (x) .

Условию (1) удовлетворяет большинство функционалов, используемых как


критерии качества в задачах структурно-классификационного анализа дан-
ных.

3. Рекуррентный алгоритм структурно-классификационного анализа


Вид оптимальной классификации. Введем понятие опорной размытой
классификации для линейного функционала F (H):

(2) HF (x) = arg max (F (x), H) .


H∈V

Показано, что если F — субградиент функционала Φ в точке H, то


Φ (HF ) ≥ Φ (H).
145
Доказана теорема о том, что оптимальная размытая классификация при-
надлежит классу опорных классификаций.
Этот результат позволяет построить алгоритм максимизации функциона-
ла.
Рекуррентный алгоритм максимизации критерия Φ (H) на каждом ша-
ге реализует два последовательных этапа: на первом этапе по данному ре-
шающему правилу F (H) находится его опорная классификация HF ; на вто-
ром этапе по HF находится функционал, который является градиентом кри-
терия Φ (H) (если функционал недифференцируем, то ищется субградиент
функционала).
Далее приведена пошаговая схема работы алгоритма.
Выбирается начальная классификация H 0 . Далее алгоритм строится ин-
дуктивно.
На q-м шаге в соответствии с алгоритмом построена классификация H q .
На (q + 1)-м шаге находится градиент Fq функционала Φ (H) в точке H q
(если функционал недифференцируем, то выбирается произвольный суб-
градиент функционала). По Fq строится классификация H q+1 , являющаяся
опорной к функционалу Fq , т.е. H q+1 = HFq .
В итоге строятся две последовательности — последовательность класси-
фикаций H 0 , H 1 , . . . , H q , . . . и соответствующая ей последовательность суб-
градиентов F0 , F1 , . . . , Fq , . . .
Доказана теорема о сходимости этого алгоритма.
Сам алгоритм и понятие «сходимости алгоритма» обсуждаются более по-
дробно в разделе, посвященном использованию методов стохастической ап-
проксимации в задаче размытой автоматической классификации.

4. Типовые задачи классификационного анализа


Задача размытого классификационного анализа с фоновым классом, в ко-
торой максимизируется функционал:

r
(3) I1 = − (x − αi )2 hi (x) dP (x) + B h0 (x) dP (x),
i=1 X X

где αi — эталон (центр) i-го класса, определяемый по формуле:


@
xhi (x) dP (x)
αi = @
X
,
hi (x) dP (x)
X

а константа B — «цена» отнесения объектов к фоновому классу, ре-


гулирующая долю объектов, попадающих в фоновый класс. Градиен-
том функционала Φ (H) = I1 в точке H является вектор-функция F̃ (x) =
= (f0 (x) , f1 (x) , . . . , fr (x)):

(4) f0 (x) = B, fi (x) = − (x − αi )2 , i = 1, . . . , r,

146
т.е. решающая функция fi (x) для оптимальной классификации должна со-
ответствовать мере близости (расстоянию с обратным знаком) точки x к эта-
лону i-го класса.
Заметим, что множество D (I1 ) всех допустимых градиентов функциона-
ла I1 состоит из функционалов, определяемых функциями вида (4). Таким
образом, при максимизации I1 можно ограничиться функционалами, зада-
ваемыми через эталоны αi по формуле (4).
Функционал I1 является частным случаем класса функционалов метода
обобщенного среднего (МОС), которые также являются выпуклыми и, сле-
довательно, удовлетворяют основному условию сходимости описанного вы-
ше алгоритма [1]. Согласно этому методу, в каждом классе строится эталон
класса и максимизируется суммарная взвешенная мера близости объектов к
эталонам соответствующих классов. Формально функционал МОС имеет вид


r
(5) Φ1 = K (x, αi ) hi (x) dP (x) + B h0 (x) dP (x),
i=1 X X

где αi — эталон i-го класса, принадлежащий множеству эталонов Λ,


K (x, αi ) — мера близости между объектом x и эталоном i-го класса αi . Эта-
лон i-го класса определяется как решение следующей оптимизационной за-
дачи:

(6) αi = arg max K (x, α) hi (x) dP (x), i = 1, . . . , r.


α∈Λ
X

В этот класс критериев входят как частные случаи функционал средне-


взвешенной дисперсии, описанный выше; функционалы экстремальной груп-
пировки параметров [8] (в этом случае эталоны (модели) — факторы групп
(обобщенные параметры)); функционал диагонализации матрицы связи [9]
(в этом случае множества X и Λ совпадают со множеством строк матрицы,
а элементы матрицы играют роль меры близости); функционалы классифи-
кации в бинарных, номинальных и ранговых шкалах [10].
Особо следует отметить, что этот же метод может быть использован
для построения кусочно-линейных аппроксимаций (КЛА) сложных зависи-
мостей, в этом случае αi – линейная регрессионная модель в i-м классе, а
K (x, αi ) — отклонение значения выходного параметра y в данной точке x от
значения линейной модели [11], т.е. функционал (5) для этой задачи имеет
вид


r
ΦКЛА = {y (x) − [(ci , x) + di ]}2 hi (x) dP (x) + B h0 (x) dP (x).
i=1 X X

Здесь y (x) – аппроксимируемая функция, ci и di — коэффициенты регресси-


онных моделей в i-м классе.
147
5. Процедуры стохастической аппроксимации в задаче
структурно-классификационного анализа
Далее на примере конкретного критерия качества МОС показано, как ис-
пользуются методы стохастической аппроксимации для разработки и иссле-
дования сходимости алгоритмов классификационного анализа данных. В ка-
честве классифицируемого множества объектов X будем рассматривать мно-
жество точек x евклидова пространства (x ∈ X) с функцией распределения
вероятностей P (A) , (A ⊆ X).
Для упрощения формул будем рассматривать случай размытой класси-
фикации на r классов без фонового класса, которая определяется вектор-
функцией H (x) = (h1 (x) , . . . , hr (x)), где hi (x) — функция принадлежности
точки x ∈ X к i-му классу,  для которой условия нормировки имеют вид
0 ≤ hi (x), i = 1, . . . , r; ri=1 hi (x) = 1. Для наиболее используемого вариан-
та МОС критерий качества классификации Φ (H) = Φ2 (H) зависит только
от вероятностей и моментов классов. Функционал Φ2 (H) является частным
случаем (5). Для рассмотрения только первых ненормированных моментов
классов введем вектор-функцию z (x) (z : X → Z = Rk ). Пространство Z на-
зывают спрямляющим пространством [8], так как в нем все рассматриваемые
моменты являются первыми. Предполагается, что выполняются следующие
два очевидных ограничения:
1) ∃A > 0 : P (|z (x)| > A) = 0 (множество X ограничено по мере P ),
2) ∀c ∈ Rk и ∀d ∈ R1 , выполняется P ((c, z (x)) + d = 0) = 0 (мера точек z,
сосредоточенных на любой плоскости пространства Rk , равно 0, т.е. условие
отсутствия вырожденности).
Рассмотрим первые ненормированные моменты и вероятности классов (ну-
левые моменты):

(7) Mi = z (x) ϕ (hi (x)) dP (x), i = 1, . . . , r, pi = ϕ (hi (x)) dP (x),


X X

здесь ϕ (h) — монотонно возрастающая функция, отображающая отре-


зок [0, 1] на себя, причем ϕ (0) = 0 и ϕ (1) = 1. Выбор функции ϕ (h) дает воз-
можность варьировать тип размытости оптимальной классификации. Обо-
значим через μ (H) = (p1 , M1 , . . . , pr , Mr ) вектор, составленный из вероятно-
стей (нулевых моментов) и первых ненормированных моментов классов, его
размерность равна r (k + 1).
Далее используется критерий качества классификации следующего вида:
(8) Φ2 (H) = φ (μ (H)) ,
где φ — выпуклая функция от r (k + 1)-мерного вектора μ (H).
Вид оптимальной классификации. Пусть задан r (k + 1)-мерный вектор
π = (d1 , c1 , . . . , dr , cr ), где di ∈ R1 , ci ∈ Rk , i = 1, . . . , r. Назовем линейной с
вектором коэффициентов π классификацию (функционал)

r
Hπ (x) = arg max ((ci , z (x)) + di ) ϕ (hi ) .
(h1 ,...,hr )
i=1

148
Функционал Hπ (x) является опорной размытой классификацией (2) для
частного вида линейного функционала F (H).
Доказана следующая лемма о виде оптимальной классификации для
функционала (8) (следует из общей теоремы о виде оптимальной классифи-
кации выпуклого функционала Φ (H)).
Л е м м а 1. Если π — субградиент функции φ в точке μ (H), то
φ (μ (Hπ )) ≥ φ (μ (H)), т.е. оптимальная классификация должна быть ли-
нейной.
Рекуррентный алгоритм классификации. Необходимо построить алго-
ритм максимизации функционала (8) по бесконечной выборке объектов
S = {x1 , . . . , xn , . . .}, появляющихся независимо в соответствии с, вообще го-
воря, неизвестным законом распределения P (x).
На каждом шаге алгоритма по конечной подвыборке объектов Sn =
= {x1 , . . . , xn } для классификации H (x) = (h1 (x) , . . . , hr (x)), построенной
к этому шагу, строятся оценки ненормированных моментов и вероятностей
классов (7):

1 1
n n
si = z (xj ) ϕ (hi (xj )) , νi = ϕ (hi (xj )) , i = 1, . . . , r.
n n
j=1 j=1

Обозначим через ψ (H) вектор частот и оценок моментов классов, его раз-
мерность равна r (k + 1).
Л е м м а 2. Для любых η > 0 и ε > 0 с вероятностью, большей 1 − η, од-
новременно для всех классификаций H выборки Sn выполняется неравенство
% A    &
r (k + 1) 4r (k + 1) 2
φ (μ (Hπ )) ≥ φ (ψ (H)) − |π| D 2ε + ln + ln ,
2 ε η

где π – субградиент функции φ в точке ψ (H), а D – некоторая константа.


В разработанном алгоритме при появлении на n-м шаге новой точки xn
пересчитываются оценки моментов и определяется текущая классификация
множества X. Формально алгоритм записывается следующим образом:
 
(n − 1) νin−1 + ϕ hn−1 (xn )
νi =
n i
,
(9) n  
(n − 1) sn−1 + ϕ hn−1 (xn ) z (xn )
si =
n i i
, ψ n = (ν1n , sn1 , . . . , νrn , snr ) ,
n
где π n — субградиент функции φ в точке ψ n , H n = Hπn . Доказана следующая
теорема об условиях сходимости алгоритма (9) к классификации, обеспечи-
вающей стационарное значение критерия (8).
Т е о р е м а. Если φ — выпуклая функция и все ее субградиенты ограниче-
ны, то в силу алгоритма (10) с вероятностью единица справедливо:
lim Φ2 (H n ) ≥ lim Φ2 (ψ n ) = C (S) ,
n→∞ n→∞

149
где C (S) – константа, зависящая от выборки S, являющаяся односторонне-
стационарным значением функции φ; если, кроме того, φ — дважды непре-
рывно дифференцируемая функция, то C (S) — стационарное значение функ-
ции φ и любая предельная точка последовательности {ψ n } является ста-
ционарной.

6. Различные типы размытости, используемые в задачах


структурно-классификационного анализа
Наиболее часто используются три метода размытой классификации – ме-
тод r-средних, размытая классификация Беждека-Данна, классификация с
размытыми границами, которые различаются множествами V [12]. В [1] по-
казано, что в результате применения описанной в разделах 3 и 4 общей схе-
мы максимизации функционала (3) алгоритмы, реализующие первые два ме-
тода, полностью совпадают с известными алгоритмами ISODATA и FUZZY
ISODATA [12] с учетом того, что в этих алгоритмах не используется фоновый
класс, т.е. максимизируется критерий

r
I1 =− (x − αi )2 hi (x) dP (x) .
i=1 X

Таким образом, за счет выбора различных вариантов ограничивающего мно-


жества V можно получать различные типы размытости. В настоящем раз-
деле подробно рассмотрены наиболее используемые типы размытости (с уче-
том фонового класса). Для удобства изложения множество V задается в виде
ограничений на функции принадлежностей.

6.1. Четкая классификация



r
V1 : 0 ≤ h0 (x) ≤ 1; 0 ≤ hi (x) ≤ 1, i = 1, . . . , r; h0 (x) + hi (x) = 1.
i=1
Из (2) следует, что в этом случае в эталонной классификации отнесение объ-
екта к классу однозначно.

6.2. Размытая классификация



r
V2 : 0 ≤ h0 (x) ≤ 1; 0 ≤ hi (x) ≤ 1, i = 1, . . . , r; (h0 (x))λ + (hi (x))λ = 1,
i=1
λ > 1.
В этом случае каждый объект в оптимальной классификации принадлежит
с ненулевым весом ко всем классам, в том числе и к фоновому.

6.3. Классификация с размытой границей



r
V3 : 0 ≤ h0 (x) ≤ 1; 0 ≤ hi (x) ≤ 1, i = 1, . . . , r; (b − h0 (x))2 + (b − hi (x))2 =
i=1
= rb2 + (b − 1)2 .
150
Этот случай является промежуточным между двумя предыдущими: в соот-
ветствии с (2) оптимальная классификация выделяет в пространстве X обла-
сти однозначного отнесения к одному из классов, а между ними оказываются
зоны неоднозначного отнесения, т.е. размываются только границы классов.

6.4. Размытая классификация с четким фоновым классом


(0)  (1)
V4 = V4 V4 ,
где
(0)
V4 : h0 (x) = 1; hi (x) = 0, i = 1, . . . , r.
(1)

r
V4 : h0 (x) = 0; 0 ≤ hi (x) ≤ 1, i = 1, . . . , r; (hi (x))λ = 1.
i=1
Использование ограничения V4 приводит к тому, что фоновый класс получа-
ется четким, а разбиение на обычные классы – размытым.

6.5. Классификация с размытыми границами


между обычными классами и четким фоновым классом
(0)  (1)
V5 = V5 V5 .
Здесь
(0)
V5 : h0 (x) = 1; hi (x) = 0, i = 1, . . . , r.
(1)

r
V5 : h0 (x) = 0; 0 ≤ hi (x) ≤ 1, i = 1, . . . , r; (a − hi (x))2 = ra2 + (a − 1)2 .
i=1

6.6. Классификация с четкими обычными классами и размытым фоном


' (λ
V6 : 0 ≤ h0 (x) ≤ 1; 0 ≤ ĥ (x) ≤ 1; (h0 (x))λ + ĥ (x) = 1.

Здесь ĥ (x) = ri=1 hi (x) – единая функция принадлежности всех обычных
классов, т.е. размытость возможна лишь между фоновым классом и каждым
из обычных классов.

6.7. Классификация с размытой границей


между обычными классами и фоновым классом
V7 : 0 ≤ h0 (x) ≤ 1; 0 ≤ ĥ(x) ≤ 1; (a − h0 (x))2 + (a − ĥ(x))2 = a2 + (a − 1)2 .

7. Заключение
В работе рассмотрена размытая постановка задачи структурно-класси-
фикационного анализа. Исследован вид оптимальной классификации, для
максимизации критерия качества структурно-классификационного анализа
предложен общий итерационный алгоритм типа стохастической аппроксима-
ции. Рассмотрены типовые задачи структурно-классификационного анализа
и соответствующие им функционалы качества. На примере одного из функ-
ционалов метода обобщенного среднего показано, как используются теория и
151
процедуры стохастической аппроксимации для конструирования и исследо-
вания сходимости алгоритмов структурно-классификационного анализа. Рас-
смотрены различные типы размытости, наиболее используемые в приклад-
ных задачах размытого структурно-классификационного анализа.
Предложенный класс рекуррентных алгоритмов был реализован в рам-
ках программно-алгоритмического комплекса интеллектуального анализа
сложных систем [13] и использовался для решения ряда прикладных за-
дач, в том числе: методы анализа, мониторинга и прогнозирования значе-
ний динамических рядов фондового рынка [14], исследование эффективности
программно-алгоритмического комплекса анализа квазипериодических био-
сигналов в задачах медицинской диагностики [15], анализа структуры про-
странственных контактов белков с нуклеотидами ДНК [16], анализа оценок
параметров мониторинга крупномасштабных социально-экономических си-
стем для нерепрезентативных выборок [17], в задаче создания измерительно-
управляющего комплекса для прогнозирования состояния путевой инфра-
структуры РЖД [18].

СПИСОК ЛИТЕРАТУРЫ
1. Дорофеюк А.А., Дорофеюк Ю.А., Покровская И.В., Чернявский А.Л. Ре-
куррентные алгоритмы интеллектуального анализа информации в сложных
измерительно-управляющих системах // Датчики и системы. 2016. № 12.
С. 3–10.
2. Robbins Н., Monro S. A stochastic approximation method // Ann. Math. Stat. 1951.
V. 22. No. 1. P. 400–407.
3. Кiefer J., Wolfowitz J. Stochastic Estimation of the Maximum of a Regression
Function // Ann. Math. Statist. 1952. V. 23. No. 3. P. 462–466.
4. Невельсон М.Б., Хасьминский Р.З. Стохастическая аппроксимация и рекуррент-
ное оценивание. М.: Наука, 1972.
5. Bharath B., S Borkar V. Stochastic approximation algorithms: Overview and recent
trends // Sadhana. 1999. No. 24. P. 425–452.
6. Kushner H., Yin G. Stochastic Approximation and Recursive Algorithms and
Applications / Ser. “Stochastic Modelling and Applied Probability”. V. 35. N.Y.:
Springer-Verlag, 2003.
7. Цыпкин Я.3., Кельманс Г.К. Рекуррентные алгоритмы самообучения // Техни-
ческая кибернетика. 1967. № 5. C. 78–87.
8. Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических
данных. М.: Наука, 1983.
9. Браверман Э.М., Дорофеюк А.А., Лумельский В.Я., Мучник И.Б. Диагонали-
зация матрицы связи и выделение скрытых факторов / Проблемы расширения
возможностей автоматов. Вып. 1. М.: ИАТ, 1971.
10. Покровская И.В., Гольдовская М.Д., Дорофеюк Ю.А., Киселёва Н.Е. Методы
интеллектуальной обработки качественных данных // Машинное обучение и
анализ данных. 2014. T. 1. № 10. C. 1396–1406.
11. Бауман Е.В., Дорофеюк А.А., Дорофеюк Ю.А., Покровская И.В. Структурно-
классификационные методы в задаче идентификации сложных объектов управ-
ления / Управление развитием крупномасштабных систем (MLSD’2011): Мате-
риалы Пятой междунар. конф. Т. II. М.: ИПУ РАН, 2011.
152
12. Bezdek J.C. Pattern Recognition with Fuzzy Objective Function Algorithms. N.Y.:
Springer, 1981.
13. Киселева Н.Е., Дорофеюк А.А., Дорофеюк Ю.А., Покровская И.В. Программно-
алгоритмический комплекс интеллектуального анализа слабо формализованных
данных // Датчики и системы. 2014. № 6. C. 48–53.
14. Спиро А.Г., Дорофеюк А.А., Дорофеюк Ю.А., Alperovich Eug., Alperovich M.
Прогнозирование диапазона колебаний цен акций на фондовом рынке // Ма-
тер. 8-й Междунар. конф. «Управление развитием крупномасштабных систем»
(MLSD’2015, Москва). М.: ИПУ РАН, 2015. Т. 2. С. 388–390.
15. Гучук В.В., Десова А.А., Дорофеюк А.А., Анохин А.М. Процедура объективи-
зации экспертной классификации характеристик биосигналов для медико-диа-
гностических комплексов // Датчики и системы. 2014. № 2. С. 2–7.
16. Кузнецов Е.Н., Анашкина А.А., Есипова Н.Г., Туманян В.Г. Кластер-анализ
аминокислотных остатков белков на основе структуры их пространственных
контактов с нуклеотидами ДНК // Матер. 8-й Междунар. конф. «Управление
развитием крупномасштабных систем» (MLSD’2015, Москва). М.: ИПУ РАН,
2015. Т. 2. С. 382–385.
17. Дорофеюк Ю.А., Дорофеюк А.А., Чернявский А.Л. Метод интеллектуально-
го анализа оценок параметров мониторинга крупномасштабных социально-эко-
номических систем для нерепрезентативных выборок // Матер. 8-й Между-
нар. конф. «Управление развитием крупномасштабных систем» (MLSD’2015,
Москва). М.: ИПУ РАН, 2015. Т. 2. С. 372–375.
18. Mandel A., Bordukov D., Dorofeyuk A., Dorofeyuk J., Chernyavsky A. A Structural
Prediction Concept for PlaceNameplaceRailway PlaceTypeState Forecasting
Problem // 15 IFAC Sympos. Inform. Control Probl. Manufactur. (INCOM 2015).
IFAC–PapersOnLine. V. 48. No. 3. Canada: Ottawa Elsevier, 2015. P. 1338–1342.

Статья представлена к публикации членом редколлегии А.И. Михальским.

Поступила в редакцию 09.11.2017

153

Вам также может понравиться