Академический Документы
Профессиональный Документы
Культура Документы
В.А.Тененев
МЕТОДИЧЕСКИЕ УКАЗАНИЯ
МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ
методические рекомендации для выполнения контрольных работ для
магистрантов технических вузов очной формы обучения
Ижевск 2019
Рег. номер
1
Методические рекомендации по выполнению контрольных работ
составлены в соответствии с рабочей программой учебной дисциплины,
разработанной на основе Федерального государственного образовательного
стандарта при изучении дисциплины «Математическое моделирование».
Рецензент:.
Составитель: Тененев В.А., д.ф.-м.н., профессор
2
Содержание
Введение 4
4. Кластеризация данных 23
Заключение 32
Литература 33
3
Введение
4
непрерывной выходной характеристике появляется задача регрессии с
построением какой-либо математической модели.
Методы кластерного анализа позволяют разделить изучаемую
совокупность объектов на группы схожих объектов, называемых кластерами.
Кластеризация отличается от классификации тем, что для проведения
анализа не требуется иметь выделенную целевую (выходную) переменную.
Второе направление снижает размерность входных признаков посредством
выявления корреляционных связей между ними.
В данном пособии рассмотрены варианты контрольных работ,
основанные на методах анализа данных.
5
1. Вычисление меры неопределенности системы данных
L
где - целая часть выражения. Состояние с переменной описывается
u k , k 1, N , N n
вектором . По формуле (1.1) или (1.2) вычисляется функция
поведения системы. Величина N (c) равна количеству одинаковых векторов
u k , k 1, N , N n
.
В качестве примера возьмем данные из табл.1, где первые 3 столбца
исходные данные, последние три – приведенные к номинальной шкале (L=3).
6
Таблица 1. Исходные данные
v1 v2 v3 u1 u2 u3
2.72 2.41 19.97 2 0 0
1.55 3.34 27.34 0 2 1
1.64 2.32 16.68 0 0 0
1.74 2.85 22.25 0 1 1
1.16 2.95 22.22 0 1 0
1.14 3.68 30.66 0 2 2
1.12 2.59 18.33 0 0 0
2.83 2.74 23.61 2 1 1
2.55 2.66 22.04 2 0 0
2.4 3.69 33.33 2 2 2
2.44 2.61 21.32 2 0 0
1.33 2.66 19.42 0 0 0
1.93 2.49 18.95 1 0 0
2.65 2.56 21.31 2 0 0
1.96 2.3 17.12 1 0 0
2.75 2.57 21.73 2 0 0
2.55 3.95 37 2 2 2
1.99 3.78 33.46 1 2 2
2.65 2.04 16.38 2 0 0
1.28 2.29 15.66 0 0 0
2 2.04 14.84 1 0 0
2.19 2.02 15.05 1 0 0
2.55 3.3 29.1 2 1 1
2.54 3.42 30.42 2 2 2
2.12 2.41 18.55 1 0 0
2.36 3.19 27.32 1 1 1
2.91 3.29 29.89 2 1 2
3 2.49 21.52 2 0 0
2.35 2.59 20.9 1 0 0
1.17 3.54 29.05 0 2 1
7
Таблица 2. Функции поведения
N (c) f B вероятностная f B возможностная
7 0.2333 1
2 0.0667 0.2857
4 0.1333 0.5714
1 0.0333 0.1429
1 0.0333 0.1429
1 0.0333 0.1429
2 0.0667 0.2857
3 0.1 0.4286
6 0.2 0.8571
1 0.0333 0.1429
1 0.0333 0.1429
1 0.0333 0.1429
Возможностный подход.
Возможностная мера нечеткости представляет собой функцию
U : [0, ] . Для любого распределения возможностей f ( i | i N |X | ) и
для любого действительного l [0,1] функция c : [0,1] P ( N ) называется
функцией уровня, а множество c( f , l ) {i N | X | | i l} называется множеством
l -го уровня от f . Обозначим через L f {l1 ,..., l q } уровневое множество для f ,
где l1 0, q | L f |; l i l j | i j; l f max i , l f l q L f .
i
8
1
H
ln 2
f B ln f B =3.177
Для расчета меры нечеткости по возможностному подходу определим, в
соответствии с табл.2, уровневое множество и функцию уровня. По формуле
(4) рассчитываем меру нечеткости:
Функция уровня CL 12 6 4 3 2 1
Уровневое множество L f 0.143 0.286 0.429 0.571 0.857 1.000
lk 1 lk 0.143 0.143 0.143 0.143 0.286 0.143
q 1
1
U( f )
lf
(l
k 1
k 1 lk ) log 2 CL ( f , lk 1 )
9
2 1 0
1 0 0
1 1 0
1 0 1
1 1 1
1 0 1
1 1 0
1 1 1
1 0 1
1 1 0
1 0 1
1 0 0
0 0 0
0 0 0
0 0 1
1 0 0
1 1 1
Вычислить функции поведения системы и меры нечеткости:
а) по вероятностному подходу;
б) по возможностному подходу.
13. Задана таблица данных
u1 u2 u3
1 0 1
1 0 0
0 1 0
1 1 1
1 0 0
1 0 0
0 1 1
2 1 0
1 0 1
2 1 1
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
1 1 1
1 0 0
0 0 1
1 0 1
1 0 0
1 1 1
1 0 1
1 0 1
1 0 1
2 1 1
1 0 1
1 1 0
1 0 1
10
1 1 1
2 1 0
Для маски
s3 s6
s2 s4 s6
вычислить функции поведения:
а) по вероятностному подходу;
б) по возможностному подходу.
14. Даны функции поведения двух систем. Найти расстояние между системами.
f fh
0.010768 0.039477
0.009852 0.011736
0.116108 0.089074
0.102326 0.047395
0.039323 0.015327
0.087442 0.071099
0.062221 0.02052
0.107174 0.052065
0.08267 0.095118
0.015532 0.087454
0.046102 0.099858
0.023681 0.059226
0.006751 0.029472
0.030814 0.012957
0.020072 0.02872
0.023911 0.078305
0.047122 0.079799
0.031961 0.045533
0.064784 0.033888
0.071387 0.002977
11
Если входные переменные являются непрерывными, то для
применения данного алгоритма их следует разбить на классы. В случае
равномерного распределения входных величин приведение к дискретному
виду проводится по формуле:
x j x min
l j Trunc L j 1 max
discr j
x j 1 , где Trunc обозначает отбрасывание
x j x minj
дробной части числа; x min max
j ,xj - минимальные и максимальные значения
переменных; L j - количество классов (интервалов), на которое разбивается
входная переменная.
12
Дискретные значения входных переменных в следующей таблице 2.2.
Hq H qjl
Соответствующие вероятности p(q) , p( x j | q) содержатся в
H Hq
следующей таблице 2.4.
14
4 0
5 0
x 2;1;1
T
Следовательно, точка принадлежит второму классу с
вероятностью 0.204.
16
0.872 0.254 0.258 2
0.410 0.529 0.151 2
0.949 0.153 0.625 3
0.535 0.598 0.166 2
0.659 0.599 0.127 2
0.613 0.238 0.686 3
0.646 0.260 0.618 3
0.189 0.595 0.207 2
0.808 0.148 0.067 1
0.562 0.167 0.319 2
0.546 0.184 0.691 3
0.500 0.418 0.995 4
0.828 0.501 0.534 3
0.790 0.262 0.567 3
0.168 0.656 0.657 3
0.002 0.894 0.372 3
0.964 0.731 0.360 4
0.096 0.978 0.872 5
0.940 0.862 0.922 5
0.255 0.828 0.297 3
0.881 0.002 0.453 2
17
3. Построение модели нечеткого вывода
18
Метод среднего центра, или центроидный метод:
yB( y )
~y y
B( y )
y
или для дискретного варианта:
m
i yi
~y i 1
.
m
i
i 1
Геометрический смысл рассчитанного значения – это центр тяжести
для кривой ( y ) .Пример: система нечеткого логического вывода
X y, X ( x1 , x2 ) , состоит из 5-ти правил:
Коэффициенты Cij
0 0
3.64 3.16
8.00 8.00
0 8.00
8.00 0
Коэффициенты S ij
19
3.00 4.01
4.86 3.35
7.59 4.64
6.49 4.65
7.14 4.40
20
Рис.3.1. График агрегированной функции принадлежности правой части
y 0 1 2 3 4 5 6 7 8
B 0.07 0.07 0.24 0.53 0.73 0.93 0.71 0.44 0.24
yB 0 0.07 0.48 1.59 2.92 4.65 4.26 3.08 1.92
Bk 1 Bk
2 0.070.1550.385 0.63 0.83 0.820.575 0.343.805
yk 1 Bk 1 yk Bk
2 0.0350.2751.035 2.2553.7854.455 3.67 2.518.01
По формуле трапеций
21
K
yk 1 Bk 1 yk Bk
yB( y)dy h
y k 1 2
18.01,
K
Bk 1 Bk
B( y)dy h
y k 1 2
3.805 и
y 4.73 .
Коэффициенты S ij
i
1 23
1 3.3 4.91 5.47
j 2 3.47 6.36 4.83
3 6.46 4.48 6.62
i qi Pi
1 0 2.63
2 4.34 2.42
3 8 3.02
22
Коэффициенты S ij
i
1 2 3
1 7.64 5.5 7.73
j 2 3.27 6.49 4.55
3 7.50 3.36 7.61
a1 a2 x a3
10. Вычислить функцию f ( x) для
x 2 a 4 ln(a 5 x)
нечетких коэффициентов
i ai l ai r ai
1 2.187 0.219 0.437
2 3.102 0.31 0.62
3 1.733 0.173 0.347
4 1.92 0.192 0.384
5 1.82 0.182 0.364
23
4. Кластеризации данных
шкале.
Методы кластеризации могут работать с категориальными, булевыми
переменными и с текстом. В технологии извлечения знаний из данных
широко применяются методы расщепления, непосредственно разбивающие
всю совокупность записей на несколько кластеров. Из них наибольшее
распространение получили различные модификации метода K-средних.
Метод K средних
Метод K средних хорошо работает, если данные по своей естественной
природе делятся на компактные, примерно сферические группы.
Зададим число K – число кластеров, на которые мы хотим разбить
записи. Случайным образом или по какому-либо правилу выбирается K
исходных центров – точек в пространстве всех переменных.
c k cik , i 1, n; k 1, K
24
Не очень критично, какие именно это будут центры, процедура выбора
исходных точек отразится, главным образом, только на количество итераций.
На первом шаге разобьем все записи на K групп, наиболее близких к одному
из центров.
J k j | min D x j , c k , j 1, p
k
На втором шаге вычисляем новые центры кластеров по средним
значениям переменных для записей, отнесенных к сформированным
группам.
1
c k (t ) x j
, t 1,2,3,...
Jk jJ k
Пример 1.
Количество переменных n 3 , p 15 .
26
7 11.34 10.98 14.03 2
8 9.22 8.34 9.28 2
9 12.02 6.34 11.29 2
10 9.29 5.01 9.12 2
11 1.89 4.29 3.22 1
12 1.28 2.4 0.23 3
13 6.3 1.2 4.76 2
14 3.9 2.76 2.47 3
15 4.56 1.15 3.25 2
27
Третья итерация, вычисление расстояний. J 1 1,4,5,8,11,
J 2,3,6,7,9,10, , J 11,12,13,14,15 ( Табл. 4).
2 3
28
Рис. 3. Кластеризация методом K-средних
Пример 2.
Количество переменных n 4 , из них в категориальной шкале L 2 ,
p 10 .
30
7 0.96 0.02 2
8 0.97 0.04 2
9 0.71 0.27 2
10 0.96 0.02 2
31
1.94 0.89 3.45
1.71 0.7 3.6
2.35 0.3 2.15
провести кластеризацию на три кластера при начальном расположении центров кластеров:
k c1 c2 c3
1 0.2 2.02 0.76
2 0.18 0.68 1.1
3 0.58 1.71 2.51
32
Заключение
33
Литература
34
Приложение 3
к приказу №______от_________
1
Заполняется факультетом, реализующим образовательную программу
35