Вы находитесь на странице: 1из 8

Математика и статистика.

(2021)

Вопросы к экзамену.

1. Случайные события. Основные определения.


2. Классическое определение вероятности. Примеры.
3. Элементы комбинаторики.
4. Сумма и произведение событий. Примеры.
5. Теоремы сложения вероятностей. Примеры.
6. Понятие условной вероятности. Независимость случайных событий.
7. Теоремы умножения вероятностей.
8. Формула полной вероятности.
9. Формула Байеса.
10. Независимые испытания. Формула Бернулли.
11. Локальная и интегральная теоремы Лапласа. (самостоятельное изучение)
12. Понятие случайной величины. Закон распределения дискретной случайной величины.
13. Математическое ожидание дискретной случайной величины.
14. Дисперсия дискретной случайной величины.
15. Свойства математического ожидания дискретной случайной величины.
16. Свойства дисперсии дискретной случайной величины.
17. Формула для вычисления дисперсии.
18. Вероятностный смысл математического ожидания д.с.в.
19. Биномиальное распределение.
20. Непрерывные случайные величины. Интегральная функция распределения.
21. Свойства интегральной функции и ее график.
22. Дифференциальная функция распределения н. с. в. Свойства и график.
23. Вероятность попадания н.с.в. в интервал.
24. Вероятностный смысл дифференциальной функции.
25. Математическое ожидание непрерывной случайной величины.
26. Дисперсия н.с.в.
27. Формула для вычисления дисперсии н.с.в.
28. Свойства математического ожидания и дисперсии непрерывной случайной величины.
29. Равномерное распределение.
30. Нормальное (гауссово) распределение. Нормальная (гауссова) кривая.
31. Вероятность попадания нормальной случайной величины в заданный интервал.
32. Правило трех сигм.
33. Показательное распределение н.с.в.
34. Закон больших чисел. Теорема Чебышева. Теорема Бернулли.
35. Задачи статистического исследования. Выборочный метод. Генеральная и выборочная
совокупности. Полигоны и гистограммы.
36. Статистические оценки параметров распределения. Выборочная средняя и генеральная средняя.
Выборочная дисперсия. Примеры.
37. Понятие доверительного интервала для оцениваемого параметра.
38. Доверительный интервал для оценки мат. ожидания нормального распределения при известном
среднем квадратическом отклонении.
39. Прямая линия регрессии. Метод наименьших квадратов.
Случайные события. Основные определения.
Событие называют случайным, если при данных обстоятельствах оно может произойти, а может и
не произойти.
Событие называют достоверным, если при данных обстоятельствах оно произойдёт.
Событие называется невозможным, если при данных обстоятельствах его появление исключено.
Суммой двух событий А и В называют событие С, заключающееся в том, что произойдёт событие А,
событие В или оба этих события.
Произведением событий А и В называют событие С, заключающееся в том, что произойдёт и
событие А, и событие В.
Два события называются несовместными, если появление одного исключает появление другого.
Очевидно, что А и В несовместны тогда и только тогда, когда их произведение невозможное событие
(АВ= ∅).
Событие В называют противоположным событию А, если эти два события несовместны и их сумма
называется достоверным событием. (АВ= ∅; А+В= Ω).

Классическое определение вероятности. Примеры.


Вероятностью события А называется число, обозначаемое Р(А), и вычисляемое по формуле:
отношение m (числа благоприятствующих исходов) к n (общему числу всех равновозможных
несовместных элементарных исходов, образующих полную группу).
Элементарными исходами испытаний называю все равновозможные и единственно возможные
исходы испытаний.
Свойство 1. Вероятность достоверного события равна единице
Свойство 2. Вероятность невозможного события равна нулю.
Свойство 3. Вероятность случайного события есть положительное число, заключенное между нулем
и единицей.
0≤P(A)≤1

Элементы комбинаторики.
Имеется множество из n элементов.
Перестановкой (из n элементов) называется любой упорядоченный набор из данных n элементов.
Число перестановок из всех n элементов Pn=n!
Размещением из n элементов по k элементов называют любой упорядоченный набор, состоящий из
k элементов n элементного подмножества. Число всех размещений из n по k. Ank= n! / (n − k)!
Сочетанием их n элементов по k элементов называют любой неупорядоченный набор из k элементов
n элементного подмножества. Сnk = n! / k! (n − k)!

Сумма и произведение событий. Примеры.


Суммой двух событий А и В называется событие С, состоящее в выполнении события А или
события В, или обоих вместе.
Например, если событие А – попадание в цель при первом выстреле, событие В – попадание в цель
при втором выстреле, то событие С=А+В есть попадание в цель вообще, безразлично при каком
выстреле – при первом, при втором или при обоих вместе.
Если события А и В несовместимы, то естественно, что появление этих событий вместе отпадает, и
сумма событий А и В сводится к появлению или события А, или события В. Например, если
событие А – появление карты червонной масти при вынимании карты из колоды, событие В –
появление карты бубновой масти, то С=А+В есть появление карты красной масти, безразлично –
червонной или бубновой.
Короче, суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного
из событий А и В. Суммой нескольких событий называется событие, состоящее в появлении хотя бы
одного из этих событий.
Теорема о сложении вероятностей. Вероятность появления одного из двух несовместных событий
равна сумме вероятностей этих событий. P(A+B)=P(A)+P(B).
Произведением событий А и В называется событие АВ, которое наступает тогда и только тогда,
когда наступают оба события: А и В одновременно.
В классе есть мальчики и девочки, отличники, хорошисты и троечники, изучающие английский и
немецкий язык. Пусть событие М — мальчик, О — отличник, А — изучающий английский язык.
Может ли случайно вышедший из класса ученик быть и мальчиком, и отличником, и изучающим
английский язык?
Случайные события А и B называются совместными, если при данном испытании могут произойти
оба эти события.
Вероятность суммы совместных событий вычисляется по формуле P(A+B)=P(A)+P(B)−P(A⋅B).
События событий А и В называются независимыми, если появление одного из них не меняет
вероятности появления другого. Событие А называется зависимым от события В, если вероятность
события А меняется в зависимости от того, произошло событие В или нет.
Теорема об умножении вероятностей. Вероятность произведения независимых событий А и В
вычисляется по формуле: P(A⋅B)=P(A)⋅P(B).

Теоремы сложения вероятностей. Примеры.


Теорема 1. Вероятность двух несовместных событий равна сумме вероятностей этих событий.
P(A+B)=P(A)+P(B).
Несколько событий называются несовместными, если никакие из них не могут появиться
одновременно в результате однократного испытания случайного эксперимента.
Следствие 1. Если события A1, A2,…,An образуют полную группу несовместных событий, то сумма
их вероятностей равна единице.
Случайные события образуют полную группу, если при каждом испытании может появиться
любое из них и не может появиться какое-либо иное событие, несовместное с ними.
Противоположными событиями называются два несовместных события, образующих полную
группу.
Следствие 2. Сумма вероятностей противоположных событий равна единице:
Вероятность попадания в цель у первого стрелка 0,8, у второго – 0,9. Стрелки делают по выстрелу.
Найти вероятность: а) двойного попадания; б) двойного промаха
Теорема 2. Вероятность суммы совместных событий вычисляется по формуле P(A+B)=P(A)+P(B)
−P(A⋅B)
Случайные события А и B называются совместными, если при данном испытании могут
произойти оба эти события.
Вероятность попадания в цель у первого стрелка 0,8, у второго – 0,9. Стрелки делают по выстрелу.
Найти вероятность хотя бы одного попадания

Понятие условной вероятности. Независимость случайных событий.


Два события называют независимыми, если вероятность одного не зависит от появления или
непоявления другого.
В коробке 5 б. и 7 ч. шаров. Найдите вероятность того, что второй шар чёрный.
А – первый шар белый; В – второй шар чёрный.
 Вероятность В при условии, что первый шар белый
 Вероятность В при условии, что первый шар чёрный
А и В – зависимые события.
Условной вероятностью PA(B)=P(B|A) (два обозначения) называют вероятность события В,
вычисленную в предположении, что событие А уже наступило.

Теоремы умножения вероятностей.


Теорема умножения вероятностей. Вероятность совместного появления двух событий равна
произведению вероятности одного из них на условную вероятность другого, вычисленную в
предположении, что первое событие уже наступило: Р(АВ)==Р(А)*РА(В).
Следствие 1. Вероятность совместного появления нескольких событий равна произведению
вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого
последующего события вычисляют в предложении, что все предыдущие события уже наступили.
Формула полной вероятности.
Говорят, что события B1, B2, …, Bn образуют полную группу событий, если они попарно
несовместны, а их сумма является достоверным событием. P(B1+B2+… Bn)=1
Элементарные исходы испытаний образуют полную группу. (Бросают игральную кость. События 1,
2, 3, 4, 5, 6 образуют полную группу)
Пусть имеется полная группа событий B1, B2, …, Bn и известно, что событие А после вместе с
событием из полной группы и пусть известны условные вероятности PB1(A), PB2(A), … PBn(A), тогда
вероятность события A. P(A)=P(B1)* PB1(A)+P(B2)* PB2(A)+…+P(Bn)* PBn(A)
События, составляющие полную группу, называют гипотезы. Вероятность этих событий после того,
как произошло событие А изменяются (переоцениваются). Имеется специальная формула,
позволяющая вычислить новую вероятность:

Формула Байеса.
Априорные (до опыта) вероятности P(B1),P(B2),P(Bn) известны. Требуется вычислить
апостериорные (после опыта) вероятности, т. е., по существу, нужно найти условные вероятности
P(B1|A),P(B2|A),P(Bn|A).

Независимые испытания. Формула Бернулли.


При решении вероятностных задач часто приходится сталкиваться с ситуациями, в которых одно и
тоже испытание повторяется многократно и исход каждого испытания независим от исходов других.
Такой эксперимент еще называется схемой повторных независимых испытаний или схемой
Бернулли. (бросание монеты или игрального кубика)
Итак, пусть в результате испытания возможны два исхода: либо появится событие А, либо
противоположное ему событие. Проведем n испытаний Бернулли. Это означает, что все n испытаний
независимы; вероятность появления события А в каждом отдельно взятом или единичном испытании
постоянна и от испытания к испытанию не изменяется (т.е. испытания проводятся в одинаковых
условиях). Обозначим вероятность появления события А в единичном испытании буквой р, т.е.
p=P(A), а вероятность противоположного события (событие А не наступило) - буквой q=P(Ā)=1−p.
Пусть проводится n независимых испытаний, в каждом из которых вероятность появления
события А постоянна и равна P(A)=p, тогда вероятность того, что событие А появятся ровно k
раз вычисляется по формуле. Тогда вероятность того, что событие А появится в этих n испытаниях
ровно k раз, выражается формулой Бернулли Pn(k)=Cnk⋅pk⋅qn−k
Распределение числа успехов (появлений события) носит название биномиального распределения.
При большом числе испытаний n>30 применение формулы Бернулли затруднительно. В этом случае
применяется локальная формула Лапласа и интегральная формула Лапласа.
Локальная и интегральная теоремы Лапласа. (самостоятельное изучение)

Понятие случайной величины. Закон распределения дискретной случайной


величины.
СВ называется величина, которая может принимать различные числовые значения из некоторого
множества.
СВ называется дискретной, если её значения изолированы и их можно перечислить (ДВС).
СВ обозначают большими буквами, а её значения соответствующими малыми буквами X={x1, x2,…}
Законом распределения случайной величины называется всякое соотношение, устанавливающие
связь между возможными значениями случайной величины и соответствующими им вероятностями.
Рядом распределения ДВС называют таблицу, в которой в первой строке перечисляются все
варианты значений ДВС, а во второй строке – советующие им вероятности.
X x1 x2 x3 x4
P p1 p2 p3 p4
Предполагая, что в первой строке все значения различные, это означает, что во второй строке
расположены вероятности несовместных событий, причём сумма всех событий равна 1.
Получено свойство ряда распределения ДВС: сумма вероятности во второй строчке равна 1.
Замечание 1. {X=x1}, {X=x2}, … образуют полную группу событий
Замечание 2. Ряд распределения часто называют законом распределения.

Математическое ожидание дискретной случайной величины.


Математическим ожиданием ДВС Х называют число, которое обозначается М(Х) и вычисляется по
формуле: М(Х)=х1*р1+х2*р2+… (Сумма произведения СВ на их вероятности)
Математическое ожидание – среднее ожидаемое значение случайной величины (СВ) –
вероятностный смысл математического ожидания

Дисперсия дискретной случайной величины.


Дисперсией случайной величины называют математическое ожидание квадрата отклонения СВ от её
математического ожидания. Дисперсия оценивает, насколько сильно разбросаны значения СВ вокруг
её математического ожидания. (Точнее Д оценивает квадрат рассеивания вокруг её математического
ожидания)
Д(Х)=М(Х-М(Х))2=М(Х2)-(М(Х))2
Дисперсия оценивает квадрат рассеивания, поэтому вводится её одна числовая характеристика.
Среднеквадратичным отклонения называется корень из дисперсии.

Свойства математического ожидания дискретной случайной величины.


1. М(С)=С Математическое ожидание постоянной величины равно этой постоянной.
Х С
Р +1
2. М(СХ)=СМ(Х) Постоянный множитель можно выносить за знак математического ожидания.
Пусть Х – ДВС, С – постоянная величина, тогда СВ «СХ» называется следующая величина
Х СХ1 СХ2 … СХn
Р Р1 Р2 … Рn
Две СВ Х и Y называют независимыми, если ряд распределения одной величины не зависит от того,
какое значение приняла другая величина.
3. М(Х+Y)=М(Х)+М(Y) Математическое ожидание суммы равно сумме математических ожиданий.
Следствие: М(Х+У+…+Z)=М(Х)+М(Y)+…+M(Z)
4. М(ХУ)=М(Х)*М(Y) Если Х и Y – независимые случайные события, то математическое ожидание
«XY» равно произведению математических ожиданий
Следствие: М(Х*У*…*Z)=М(Х)*М(Y)*…*M(Z)

Свойства дисперсии дискретной случайной величины.


1. Д(С)=0 Дисперсия постоянной величины равна нулю.
2. Д(СХ)= С2Д(Х) Постоянный множитель выносится из-под знака дисперсии в квадрате
3. Д(Х+Y)= Д(Х)+Д(Y) Дисперсия суммы двух независимых случайных величин равна сумме их
дисперсий
4. Д(Х-Y)= Д(Х)+Д(Y) Дисперсия разности двух независимых случайных величин равна сумме их
дисперсий
Следствие 1: Для любой дискретной случайной величины Х и С для любой константы Д(С+Х)=Д(Х)
Следствие 2 свойств 1– 4: Если (Х1, Х2,…) – Взаимно независимые случайные величины, то Д(Х±Y±
…)= Д(Х)+Д(Y)+…

Формула для вычисления дисперсии.


Дисперсия случайной величины Х вычисляется по следующей формуле: D(X)=M(X−M(X))2, которую
также часто записывают в более удобном для расчетов виде: D(X)=M(X2)−(M(X))2.

Вероятностный смысл математического ожидания ДВС.


Математическое ожидание приближенно равно (тем точнее, чем больше число испытаний) среднему
арифметическому наблюдаемых значений случайной величины.
Математическое ожидание – среднее ожидаемое значение случайной величины (СВ) –
вероятностный смысл математического ожидания

Биномиальное распределение.
Биномиальным называют распределение количества «успехов» в последовательности из n
независимых случайных экспериментов, таких, что вероятность «успеха» в каждом из них постоянна
и равна p.
Иначе говоря, пусть происходит n независимых испытаний, в каждом из которых событие может
появиться с одной и той же вероятностью p. Тогда случайная величина X - количество испытаний, в
которых появилось событие, имеет биномиальное распределение вероятностей.
Она может принимать целые значения от 0 (событие не произошло ни разу) до n (событие произошло
во всех испытаниях). Формула для вычисления соответствующих вероятностей - уже известная нам
формула Бернулли для схемы повторных независимых испытаний:
P(X=k)=Ckn⋅pk⋅(1−p)n−k, k=0,1,2,...,n.
Для биномиального распределения известны готовые формулы для математического ожидания и
дисперсии:
M(X)=np, D(X)=npq, σ(X)= √npq.

Непрерывные случайные величины. Интегральная функция распределения.


СВ называется непрерывной, если её интегральная функция является непрерывной функцией.
Интегральной функцией распределения СВ «Х» называется функция F(x), значение которой в точке
x равно вероятности того, что СВ «Х» примет значение меньше, чем х. F(x)=P(X<x).
Интегральная функция определена и для дискретной, и для не дискретной случайной величины.
Интегральная функция ДСВ является ступенчатой (имеет конечное или бесконечной число точек
разрыва).16

Свойства интегральной функции и ее график.


1. 0≤F(x)≤1 (значение интегральной функции распределения дискретной или не дискретной
случайной величины, так как интегральная функция – это вероятность, а вероятность [0;1])
2. F(x) – возрастающая функция
Пусть x1≤x2. Тогда для событий A1 = {X < x1} и A2 = {X < x2}, справедливо A1 ⊂ A2. Тогда
P(A1)≤P(A2), а значит F(x1)≤F(x2). ЧТД
3. Вероятность попадания СВ в промежуток
P(a≤X≤b)=F(b)-F(a) – и для дискретной, и для непрерывной
4. if X непрерывная СВ, то вероятность того, что она примет конкретное числовое значение равна
нулю (P(X=x0)=0)
P(x0≤X+Δx)=F(x0+Δx)Δx->0; x0+Δx->x0 -F(x0)
P(X=x0)= F(x0)-F(x0)=0 ЧТД
5. Вероятность попадания непрерывной случайной величины в промежуток не зависит от того,
принадлежат или нет крайние точки этому промежутку P(a≤X≤b)= P(a<X≤b)=…=F(b)-F(a)
Следует из формулы P(a≤X≤b)=F(b)-F(a) и свойства P(X=x0)=0: P(a≤X≤b)=P(a≤X<b)+P(x=b)=0= F(b)-
F(a) – аналогично остальные случаи
6. lim x→−∞F(x) = 0.
7. lim x→+∞ F(x) = 1
Из свойств интегральной функции получаем, что график непрерывной СВ «Х», распределенный на
общей числовой оси имеет вид
8. Если непрерывная СВ «Х» распределена на отрезке [a;b], F(x)=1 для x>b; F(x)=0 для x≤a.
Из свойства 6 (о непрерывности) следует, что F(b)=1 и график имеет следующий вид.

Дифференциальная функция распределения н. с. в. Свойства и график.


Дифференциальный функцией распределения непрерывной СВ называется первая производная от
интегральной функции f(x)=F’(x) (– плотность распределения)
Из определения следует, что интегральная функция F(x) – первообразная для функции f(x).
1. f(x)≥0 (Интегральная функция неубывающая, поэтому её производная неотрицательна).
2. Вероятность попадания СВ в интервал (a; b) = интегралу дифференциальной функции на
отрезке (a; b) P(a<x< b) = F(b)–F(a) = интегралу – формула Ньютона -Лейбница

Вероятность попадания н.с.в. в интервал.


Вероятность попадания СВ в интервал (a; b) = интегралу дифференциальной функции на отрезке (a;
b) P(a<x< b) = F(b)–F(a) = интегралу – формула Ньютона -Лейбница (п. 2 выше)

Вероятностный смысл дифференциальной функции.


Лист 20

Математическое ожидание непрерывной случайной величины.


40. Дисперсия н.с.в.
41. Формула для вычисления дисперсии н.с.в.
42. Свойства математического ожидания и дисперсии непрерывной случайной величины.
43. Равномерное распределение.
44. Нормальное (гауссово) распределение. Нормальная (гауссова) кривая.