Вы находитесь на странице: 1из 7

ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ

Что изучает теория вероятностей? Статистическое определение вероятности


Теория вероятностей – это раздел математики, в котором изучаются статистиче- Статистическая вероятность события – частота его появления, т.е. W(A) = m/n,
ски стойкие СВ и явления, вне зависимости от их конкретной природы, а также вы- где m – количество благоприятных исходов среди n испытаний.
являются закономерности при их многократном повторении.
Что такое событие? Достоверные, невозможные случайные события. Примеры Формула вычисления вероятности. Почему вероятность не может быть
Событие – это результат испытания. отрицательной и большей единицы. Примеры
Достоверное событие – событие, которое обязательно произойдет в результате Поскольку вероятность события А – это отношение m благоприятных событий к
данного испытания (вероятность равна 1). В ящике все белые шары. Достать белый общему числу n (m<=n) несовместимых единовозможных и равновозможных собы-
Невозможное событие – событие, которое не может произойти в результате дан- тий, 𝑃(𝐴) = 𝑚/𝑛 => 0 ≤ 𝑃(𝐴) ≤ 1
ного испытания (вероятность равна 0). В ящике все белые шары. Достать черный В урне 10 шаров: 2 К, 3 Ч, 4 Б. Событие А: достают Б. Событие В: достают С шар.
Случайное событие – событие, которое в условиях данного испытания может про- Р(А) = 4/10 = 0,25, поскольку в урне из 10-ти шаров 4 Б шара.
изойти или не произойти. В ящике белые и черные шары. Достать белый Р(В) = 0/10 = 0, поскольку в урне из 10-ти шаров нет ни одного С шара.
Несовместимые события. Примеры Единовозможные события. Примеры
Два события называются несовместимыми, если появление одного из них исклю- Единовозможные события – это события, появление одного из которых в резуль-
чает появление другого. Иначе эти события являются совместимыми. тате испытания исключает появление остальных.
Попадание в мишень и промах одновременно Выпадение 1-ой из 6-ти цифр при подбрасывании игральной кости
Равновозможные события. Примеры Противоположные события. Вычисление. Примеры
Равновозможные события – это события, которые могут произойти с одинаковой Противоположные события – два события, которые должны произойти в резуль-
вероятностью, т.е. нет причин полагать, что при испытании появление одно из собы- тате данного испытания, но появление одного из них исключает появление другого.
тий более вероятно. Выпадение 1, 2, …, 6 при подбрасывании игральной кости Вычисление: А ̅ = 1 − А. Выпадение орла или решки
Полная группа событий. Сумма ее вероятностей. Примеры Классическое определение вероятности. Примеры
Полная группа событий – это множество несовместимых единовозможных и рав- Пусть в результате эксперимента может произойти конечное число n элементар-
новозможных событий, т.е. в результате эксперимента произойдет одно и только ных событий, среди которых m (m<=n) событий благоприятствуют событию А. Тогда
одно событие. Сумма вероятностей полной группы событий равна единице. вероятность события А – это отношение m благоприятных событий к общему числу
В урне 3 шара: К, Б, Ч. Не глядя достают 1 шар. Событие А: достанут К; событие В: n несовместимых единовозможных и равновозможных событий. Р(А) = m/n.
достанут Б; событие С: достанут Ч. Тогда А, В, С – полная группа событий В урне 10 шаров: 3 Б и 7 Ч. Вероятность достать белый с 1-ой попытки – 3/10
Статистическая устойчивость события при увеличении кол-ва испытаний. Примеры Сумма событий. Сумма совместимых событий. Примеры
Статистическая устойчивость события – это свойство события, которое указы- Сумма событий А и В – это событие, которое предполагает появление хотя бы од-
вает, что при проведении одного и того же эксперимента несколько раз его относи- ного из них. Если события А и В совместимы, то «А+В» будет означать появление
тельная частота будет меняться незначительно и приближаться к постоянному ИЛИ события А, ИЛИ события В, ИЛИ обоих одновременно.
числу вероятности события. Отсюда следует, что при увеличении количества испы- Вероятность, что хотя бы 1-ин из 3-х нужных товаров будет в наличии
таний относительная частота события будет приближаться к его вероятности. Произведение событий. Произведение совместимых событий. Примеры
Монету подбрасывали 10 и 100 раз. В первом испытании решка выпала 6 раз, а во Произведение событий – это событие, которое предполагает совместное появле-
втором – 46. Вероятность этого события – 0,5. Относительная частота появления со- ние этих событий. Если события совместимы, то их произведение означает их одно-
бытия в первом случае равна 0,6; во втором – 0,46. Полученные значения отлича- временное появление.
ются незначительно и колеблются около 0,5. Вероятность, что необходимые 3 товара будут в магазине
Разность событий. Примеры Теорема сложения вероятностей несовместимых событий
Разность событий А и В – это событие, которое предполагает появление ТОЛЬКО Вероятность появления одного из двух несовместных событий равна сумме веро-
события А. ятностей этих событий: Р(А+В) = Р(А) + Р(В)
В урне 10 шаров с номерами от 1-го до 10-ти. Событие А: достанут шар с нечет- Теорема сложения вероятностей совместных событий
ным номером. Событие В: достанут шар с номером, большим 4-х. Вероятность, что Вер-ть появления хотя бы одного из совместных событий равна сумме вер-тей
достанут шар с номером 1 или 3 равна разности событий А и В. этих событий минус вер-ть их совместного появления: Р(А+В) = Р(А) + Р(В) – Р(АВ)
Независимые события. Определение Теорема умножения вероятностей для независимых событий
Независимые события – это события, возникновение одного из которых не влияет Вероятность одновременного наступления двух независимых событий равна про-
на возникновение остальных (одного или нескольких в любой комбинации). изведению вероятностей этих событий: P(AB) = P(A)*P(B)
Условная вероятность события. Примеры Теорема умножения вероятностей для зависимых событий
Условная вероятность события – это вероятность наступления события из рас- Вероятность одновременного наступления двух независимых событий равна про-
чета, что уже выполнились некоторые условия: РА(В) = Р(В|A). изведению вероятности одного из них на условную вероятность другого, вычислен-
В урне 10 шаров: 5 Б и 5 Ч. Вероятность достать Б, если перед этим достали 2 Ч ную в предположении, что первое событие осуществилось: P(AB) = P(A)PA(B)
Вероятность появления хотя бы одного из независимых в совокупности событий Формула Байеса. Ее назначение
Вероятность появления хотя бы одного из независимых в совокупности событий Формула Байеса позволяет определить вероятность события при условии, что
равна разности единицы и произведения вероятностей противоположных этим со- произошло другое, связанное с ним событие.

бытий: Р(А) = 1 – q1•q2•…•qn. Если все события имеют одинаковые вероятности, то: 𝑃(𝐻𝑘 |𝐴)𝑃(𝐻𝑘 )
Р(А) = 1 – qn. 𝑃(𝐻𝑘 |𝐴) = ∑
𝑃(𝐻𝑖 )𝑃(𝐴|𝐻𝑖 )
𝑖=1
Формула полной вероятности. Свойство гипотез
Формула полной вероятности позволяет вычислить вероятность события через условные вероятности этого события предполагая существование неких гипотез, а также
вероятностей этих гипотез. Если событие А может произойти при выполнении 1-ой из гипотез Н1, Н2, …, Нn, которые образуют полную группу несовместных событий, то
вероятность события А равна: 𝑃(𝐴) = ∑𝑛1 𝑃(𝐻𝑖 )𝑃(𝐴|𝐻𝑖 ).
ПОВТОРЕНИЕ НЕЗАВИСИМЫХ ИСПЫТАНИЙ
Формула Бернулли. Ее назначение Локальная Т Муавра-Лапласа. Случаи ее применения
Формула Бернулли предназначена для нахождения вероятности наступления со- Если в n независимых испытаниях событие А появляется с вероятностью Р (не
бытия в n независимых испытаниях ровно k раз при условии, что вероятность наступ- приближающейся к нулю или единице), то при достаточно большом n вероятность,
𝑛!∙𝑝𝑘 ∙𝑞 𝑛−𝑘 −𝑥2
ления события в каждом испытании постоянна. 𝑃(𝐴) = 𝐶𝑛𝑘 ∙ 𝑝𝑘 ∙ 𝑞 𝑛−𝑘 = что событие произойдет k раз равна: 𝑃(𝐴) =
𝜑(𝑥)
, где 𝑥 =
𝑘−𝑛𝑝
; 𝜑(𝑥) =
1
∙𝑒 2
(𝑛−𝑘)!𝑘! √𝑛𝑝𝑞 √𝑛𝑝𝑞 √2𝜋
Нахождение наиболее вероятного числа наступления события Интегральная Т Муавра-Лапласа. Случаи ее применения
Значение k0 (наиболее вероятное число наступления события) называется веро- Если в n независимых испытаниях событие А появляется с вероятностью Р
ятностной частотой события. Для вычисления используется двойное неравенство: (0<P<1), то при достаточно большом n вероятность, что частота события k будет нахо-
𝑝𝑛 − 𝑞 ≤ 𝑘0 ≤ 𝑛𝑝 + 𝑝. Длина данного интервала равна единице. Поскольку k0 – целое диться в диапазоне (k1<k<k2) приблизительно равна:
число, то если границы интервала – целые числа, есть два наиболее вероятных числа 𝑘1 −𝑛𝑝 𝑘2 −𝑛𝑝 𝑥 −𝑧2
𝑃(𝐴) ≈ Φ(𝑥2 ) − Φ(𝑥1 ), где 𝑥1 = ; 𝑥2 = ; Φ(𝑥) = ∫0 𝑒 2 𝑑𝑧
наступления события: 𝑘0 = 𝑝𝑛 − 𝑞 и 𝑘0 = 𝑛𝑝 + 𝑝 √𝑛𝑝𝑞 √𝑛𝑝𝑞
Теорема Пуассона. Нахождение параметра λ Свойства функции Лапласа ϕ(х) Свойства функции Лапласа Ф(х)
Если в n независимых испытаниях событие А появляется с вероятностью Р (P 1) 𝜑(𝑥) − четная 1) Φ(𝑥2 ) > Φ(𝑥1 ), 𝑥2 > 𝑥1
близка к 0 или 1), но при этом 10≥np, вероятность появления А ровно k раз приблизи- 2) 𝜑(𝑥) = 𝜑(−𝑥) 2) Φ(𝑥) = Φ(−𝑥)
𝜆𝑛 3) lim 𝜑(𝑥) = 0 3) lim Φ(𝑥) = 0,5
тельно равна: 𝑃(𝐴) ≈ ∙ 𝑒 −𝜆 , где 𝜆 = 𝑛𝑝. ∞ ∞
𝑘!
4) При 𝑥 > 5, 𝜑(𝑥) ≈ 0 4) При 𝑥 > 5, Φ(𝑥) ≈ 0,5
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Определение СВ. Примеры дискретных и непрерывных СВ Интегральный закон распределения СВ. Свойства этой функции
Случайная величина (СВ)– это такая величина, которая в результате опыта может Функция распределения СВ Х (интегральная функция распределения или инте-
принять некоторое, неизвестное заранее, значение. гральный закон распределения) – функция F(x), выражающая для каждого х вероят-
Дискретная СВ (ДСВ) – это СВ, которая может принимать отдельное, конечное иди ность того, что СВ Х примет значение, меньшее х: F(x) = P(X<x)
бесконечное СЧЕТНОЕ множество значений. Свойства интегральной функции распределения:
Число попаданий при трех выстрелах; число вызовов, поступивших за сутки.  0≤F(x) ≤ 1 (следует из F(x) = P(X<x))
Непрерывная СВ (НСВ) – это величина, возможные значения которой непрерывно  интегральная функция распределения является неубывающей, т.е. F(x1) ≤ F(x2) при
заполняют некоторый промежуток. x1 ≤x2 . F(-∞)=0; F(∞)=1
Абсцисса точки попадания при выстреле; вес наугад взятого зерна пшеницы.  вероятность того, что СВ X примет значение из интервала [a,b] равна приращению
Закон распределения дискретной СВ интегральной функции распределения на этом интервале: P(a<X<b) = F(a) – F(b)
Закон распределения ДСВ – это соответствие между некоторыми возможными  если функция F(x) непрерывна, то вероятность того, что непрерывная случайная
значениями и их вероятностями. величина примет одно единственное значение равна нулю
Ряд распределения. Многоугольник распределения Дифференциальная функция распределения СВ. Свойства
Ряд распределения, как и многоугольник распределения – Дифференциальная функция распределения СВ – первая производная от инте-
форма, в которой может быть задан закон распределения прерыв- гральной функции распределения: f(x) = F’(x).
ной случайной величины. Свойства дифференциальной функции распределения:
Ряд – обычно таблица вида: Многоугольник – график:  𝑓(𝑥) ≥ 0, т.к. это производная от неубывающей функции
xi x1 x2 … xn  𝑃 (𝑥 ≤ 𝑋 ≤ 𝑥 + ∆𝑥) ≈ 𝑓(𝑥) ∗ ∆𝑥
+∞
pi p1 p2 … pn  ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
Математическое ожидание дискретной и непрерывной СВ Свойства математического ожидания
Математическое ожидание ДСВ – числовая характеристика, характеризующая рас-  𝑀(𝐶) = 𝐶, 𝐶 − 𝑐𝑜𝑛𝑠𝑡
положение значений СВ на числовой прямой. Оно является средней характеристикой,  𝑀(𝐶 ∙ 𝑥) = 𝐶 ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖
около которой расположены все возможные значения СВ.  𝑀(𝑥 ± 𝐶) = 𝑀(𝑥) ± 𝐶
Математическое ожидание для ДСВ: 𝑀(𝑥) = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖  𝑥, 𝑦𝑀(𝑥 ± 𝑦) = 𝑀(𝑥) ± 𝑀(𝑦)
+∞
Математическое ожидание для НСВ: ∫−∞ 𝑓(𝑥)𝑑𝑥  𝑥 ≥ 0, 𝑀(𝑥) ≥ 0
Дискретная СВ (ДСВ) – это СВ, которая может принимать отдельное, конечное или  𝑀(𝑥 − 𝑀(𝑥)) = 0
бесконечное СЧЕТНОЕ множество значений.  𝑥, 𝑦 − независимые, 𝑀(𝑥 ∙ 𝑦) = 𝑀(𝑥) ∙ 𝑀(𝑦)
Непрерывная СВ (НСВ) – это величина, возможные значения которой непрерывно
заполняют некоторый промежуток.
Определение дисперсии и среднеквадратического отклонения ДСВ и НСВ Свойства дисперсии
Дисперсия СВ – числовая характеристика, характеризующая степень рассеивания  𝐷(𝐶) = 0, 𝐶 − 𝑐𝑜𝑛𝑠𝑡
СВ около ее математического ожидания. Дисперсия равна математическому ожида-  𝐷(𝑥) ≥ 0
нию квадрата отклонения СВ от математического ожидания: 𝐷(𝑥) = 𝑀(𝑥 − 𝑀(𝑥))2  𝐷(𝐶 ∙ 𝑥) = 𝐶 2 ∙ 𝐷(𝑥)
Среднеквадратическое отклонение – показатель рассеивания значений случай-  𝐷(𝑥 ± 𝐶) = 𝐷(𝑥)
ной величины относительно её математического ожидания. 𝜎(𝑥) = √𝐷(𝑥)  𝑥, 𝑦 − независимые, 𝑀(𝑥 ± 𝑦) = 𝑀(𝑥) ± 𝑀(𝑦)
Определение моды и медианы Начальный и центральный моменты k-го порядка. Соотношения между ними
Мода – наиболее часто повторяющееся значение СВ. Начальный момент k-го порядка: 𝜈𝑘 = 𝑀(𝑥 𝑘 )
Медиана – квантиль порядка 0,5. Для ДСВ: 𝜈𝑘 = ∑𝑛𝑖=1 𝑥𝑖𝑘 𝑝𝑖
Квантиль порядка р – это число, которое удовлетворяет условию F(xp)=P(X<xp)=p +∞
Для НСВ: 𝜈𝑘 = ∫−∞ 𝑥 𝑘 𝑓(𝑥)𝑑𝑥
Биномиальный закон распределения Центральный момент k-го порядка: 𝜇𝑘 = 𝑀(𝑥 − 𝑀(𝑥))𝑘
Биномиальный закон распределения – это закон распределения СВ. Для ДСВ: 𝜇𝑘 = ∑𝑛𝑖=1 𝑀(𝑥𝑖 − 𝑀(𝑥))𝑘
Биномиальный закон имеет вид: ∑𝑛𝑘=0 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = (𝑝 + 𝑞)𝑛 = 1 +∞ 𝑘
Ряд распределения для биномиального закона: Для НСВ: 𝜇𝑘 = ∫−∞ (𝑥 − 𝑀(𝑥)) 𝑓(𝑥)𝑑𝑥
x 0 1 2 ... k … n Можно заметить, что наипростейшим соотношением между начальным и цен-
p qn npqn-1 1 𝑛(𝑛 − 1)𝑝2 𝑞 𝑛−2 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 pn тральным моментами k-го порядка является их зависимость от основной числовой
2 характеристики – математического ожидания, т.е. математическое ожидание необхо-
димо знать для вычисления как начального, так и центрального момента.
Правило трех сигм Формула закона распределения Пуассона
Если СВ имеет нормальное распределение, то вероятно, что отклонение этой ве- 𝜆𝑘
личины от математического ожидания по абсолютной величине не превышает 3σ. 𝑃(𝑋 = 𝑘) = 𝑒 −𝜆
𝑘!
Равномерный закон распределения. Формула и график функции распределения Влияние математического ожидания и дисперсии на форму нормальной кривой
Непрерывная СВ Х имеет равномерный закон распределения на интервале [a;b], Дисперсия влияет на форму кривой (чем
если плотность вероятности f(x) на этом интервале постоянная, а вне его равна нулю: больше дисперсия, тем более искривленная и
0, 𝑥 ≤ 𝑎 заостренная кривая).
𝑓(𝑥) = {𝑐, 𝑎 < 𝑥 ≤ 𝑏 Математическое ожидание влияет на распо-
0, 𝑥 > 𝑏 ложение кривой на координатной плоскости.
Формула и график функции распределения:
0, 𝑥 < 𝑎
𝑥−𝑎
𝑃(𝑋 ≤ 𝑥) = {𝑏−𝑎 , 𝑎 ≤ 𝑥 < 𝑏
1, 𝑥 ≥ 𝑏
Дифференциальная функция распределения СВ для Формула вероятности попадания СВ,
нормального закона распределения. Смысл параметров подлежащей нормальному закону распределения, в интервал (a, b)
(𝑥−𝑚)2 1 𝑏−𝑚 1 𝑎−𝑚 𝑏−𝑚 𝑎−𝑚
1 − 𝑃(𝑎 < 𝑋 < 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) = ( + Ф ( )) − ( + Ф ( )) = Ф ( )− Ф( )
𝑓(𝑥) = 𝑒 2𝜎2 , где m – мат. ожидание; σ – среднеквадратическое отклонение;
√2π∙𝜎 2 𝜎 2 𝜎 𝜎 𝜎
σ2 – дисперсия СВ.
ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Предмет математической статистики. Статистическая совокупность Варианта. Ее накопленная частота, относительная накопленная частота
Предмет математической статистики – это способы научного анализа массовых Варианты – различные значения признаков в элементарной совокупности.
явлений с целью определения их обобщающих характеристик, определения стати- Накопленная частота варианты – сумма частот всех предыдущих вариант включая
стических закономерностей, взаимосвязей и тенденций. данную: 𝑓𝑗С = 𝑓1 + 𝑓2 + 𝑓3 + ⋯ + 𝑓𝑗 .
Статистическая совокупность – множество однородных элементов, которые под- Накопленная относительная частота – сумма относительных частот предыдущих
лежат статистическому изучению. 𝑓С
вариант, включая данную: 𝑊𝑗С = 𝑊1 + 𝑊2 + 𝑊3 + ⋯ + 𝑊𝑗 = 𝑗 .
𝑛
Репрезентативность выборочной совокупности. Ошибки репрезентативности Выборочный метод
Репрезентативность – свойство выборочной совокупности, которое предполагает, Выборочный метод – статистический метод, основанный на определении свойств
что ее данные должны совпадать или быть близкими соответствующим данным ге- генеральной совокупности с помощью соответствующих значений выборки.
неральной совокупности. Вариационный ряд. Виды вариационных рядов
Ошибка репрезентативности – разность между данными генеральной совокупно- Вариационный ряд – с точки зрения статистики это упорядоченное распределе-
сти и выборочной. Виды: случайная (результат действия случайных факторов); систе- ние единиц совокупности по определенным признакам. Виды: дискретный (вари-
матическая (при нарушениях и намеренных изменениях правил выбора определен- анты отличаются на некоторую величину); интервальный (варианты могут отли-
ных параметров). чатся на любую малую величину).
Варианта. Ее частота, относительная частота Генеральная и выборочная совокупность. Примеры
Варианты – различные значения признаков в элементарной совокупности. Генеральная совокупность – вся подлежащая изучению совокупность объектов.
Частота варианты – число ее повторений в совокупности. Выборочная совокупность – часть объектов генеральной совокупности, выбран-
Относительная частота – отношение частоты варианты к объему совокупности: 𝑊𝑗 =
𝑓𝑗 ная для непосредственного изучения.
𝑛
Формулы средней арифметической, дисперсии, среднеквадратического отклонения, Числовые характеристики и изменчивость. Дисперсия, ее свойства
асимметрии и эксцесса Изменчивость отображают дисперсия и коэффициент вариации.
1 1
Средняя арифметическая: 𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 ; 𝑥̅ = ∑𝑘𝑖=1 𝜈𝑖 𝑓𝑖 Дисперсия – числовая характеристика, характеризующая степень рассеивания СВ
𝑛 𝑛
∑(𝑥−𝑥̅ )2 около ее математического ожидания. Дисперсия равна математическому ожиданию
Дисперсия: 𝜎 2 = квадрата отклонения СВ от математического ожидания: 𝐷(𝑥) = 𝑀(𝑥 − 𝑀(𝑥))2
𝑛
Среднеквадратическое отклонение: 𝑠̅ = √𝑠̅ 2
𝑥̅ −𝑀𝑜 𝑥̅ −𝑀𝑒 𝜇
Асимметрия: 𝐴 = ;𝐴 = ; 𝐴 = ̅ 33
𝜎 𝜎 𝑆
𝜇4
Эксцесс: 𝐸 =
𝑆̅ 4
Числовые характеристики и форма статистического распределения. Их формулы. Числовые характеристики и изменчивость. Коэффициент вариации
Особенности статистической совокупности в зависимости от коэф-та асимметрии Изменчивость отображают дисперсия и коэффициент вариации.
К показателям формы относятся коэффициент асиммет- Коэффициент вариации – относительная величина, которая характеризует измен-
рии и эксцесс. чивость признака. Коэффициент вариации ν равен отношению среднеквадратиче-
Коэффициент асимметрии характеризует направление ского отклонения к среднему арифметическому. Используется при необходимости
и меру смещения распределения: 𝐴 =
𝑥̅ −𝑀𝑜
;𝐴 =
𝑥̅ −𝑀𝑒 𝜇
; 𝐴 = 33, оценить изменчивость характеристик объекта, которые выражены в различных еди-
𝜎 𝜎 𝜎
∑(𝑥−𝑥̅ )3 ∗𝑓 ницах измерения.
где 𝜇3 = ∑𝑓
– центральный момент 3-го порядка. Свойства дисперсии:
Эксцесс характеризует «островершинность» распреде-  𝐷(𝐶) = 0, 𝐶 − 𝑐𝑜𝑛𝑠𝑡
ления: ∑(𝑥 − 𝑥̅ )3 ∙ 𝑓, где 𝜇4 =
∑(𝑥−𝑥̅ )4 ∗𝑓
– центральный мо-  𝐷(𝑥) ≥ 0
∑𝑓  𝐷(𝐶 ∙ 𝑥) = 𝐶 2 ∙ 𝐷(𝑥)
мент 4-го порядка.  𝐷(𝑥 ± 𝐶) = 𝐷(𝑥)
 𝑥, 𝑦 − независимые, 𝑀(𝑥 ± 𝑦) = 𝑀(𝑥) ± 𝑀(𝑦)
Способы графического изображения вариационных рядов Числовые характеристики и центральная тенденция.
Полигон: Гистограмма: Кумулятивная кривая: Свойства средней арифметической
Среднее значение – параметр, являющийся мерой центральной тенденции для
приблизительно нормально распределенных данных. Если распределение идет не по
нормальному закону, то для характеристики центральной тенденции нужно исполь-
зовать медиану.
1 1
Средняя арифметическая: 𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 ; 𝑥̅ = ∑𝑘𝑖=1 𝜈𝑖 𝑓𝑖
𝑛 𝑛
Эмпирическая функция распределения Свойства:
Эмпирическая функция распределения – это функция Fn(x), которая определяет
 𝑥̅ (𝐶) = 𝐶, 𝐶 − 𝑐𝑜𝑛𝑠𝑡
для каждого значения х относительную частоту события (ξ < x).
 𝑥̅ (𝐶 ∙ 𝑥) = 𝐶 ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖
Свойства:
 𝑥̅ (𝑥 ± 𝐶) = 𝑥̅ (𝑥) ± 𝐶
 0  Fn(x)  1;  𝑥, 𝑦 𝑥̅ (𝑥 ± 𝑦) = 𝑥̅ (𝑥) ± 𝑥̅ (𝑦)
 Fn(x) – неубывающая  𝑥 ≥ 0, 𝑥̅ (𝑥) ≥ 0
 Fn(x  а) = 0, если а – наименьшая варианта  𝑥̅ (𝑥 − 𝑥̅ (𝑥)) = 0
 Fn(x > b) = 1, если b – наибольшая варианта  𝑥, 𝑦 − независимые, 𝑥̅ (𝑥 ∙ 𝑦) = 𝑥̅ (𝑥) ∙ 𝑥̅ (𝑦)
ТЕОРИЯ СТАТИСТИЧЕСКОЙ ОЦЕНКИ
Статистическая оценка параметра Ө Доверительный интервал. Доверительная вероятность
Статистическая оценка параметра ϴ - это величина, определенная по выборке х1, Доверительный интервал – интервал [T-Δ; T+Δ], который вмещает в себе значение
х2, …, хn, т.е. функция от выборочных значений. M(T)>ϴ - избыток М(Т)<ϴ - недоста- ϴ с заданной, близкой к единице доверительной вероятностью γ, где 𝛾 = 𝑃(|𝜃 − Τ| ≤
ток. ∆).
Смещенные, несмещенные оценки. Примеры. Эффективная и состоятельная оценки
Несмещенная оценка генеральной средней арифметической Состоятельная оценка – статическая оценка параметра распределения вероятно-
Несмещенная оценка – оценка Т, математическое ожидание которой равно мате- стей, которая обладает свойством, что при увеличении числа наблюдений вероят-
матическому ожиданию ϴ. ность отклонения оценки от оцениваемого параметра на величину, которая превы-
Смещенная оценка – когда данное условие не выполняется. шает некоторое заданное число, стремится к нулю.
1
Несмещенной является выборочная средняя: х̅ = ∑ 𝑥𝑖 Эффективная оценка – точечная оценка параметра а при условии, что ее дисперсия
𝑛
1 среди всех дисперсий других оценок максимальная.
Несмещенная оценка генеральной средней арифметической: 𝑥̅ = ∑ 𝑥𝑖 𝑓𝑖
𝑛
Доверительный интервал для генеральной средней, когда известна величина Формула для несмещенной оценки генеральной дисперсии
𝜎 1
х̅в − ∆ < 𝑚𝑥 < х̅в + ∆, где ∆= 𝑡𝛾 𝑥̅ = ∑ 𝑥𝑖 𝑓𝑖
√𝑛
𝑛
Смещенные, несмещенные оценки. Примеры. Выборочная дисперсия.
Поправка Бесселя
Несмещенная оценка – оценка Т, математическое ожидание которой равно математическому ожиданию ϴ.
Смещенная оценка – когда данное условие не выполняется.
1
Выборочная дисперсия является несмещенной выборочной оценкой: 𝑆 2 = ∑(𝑥𝑖 − 𝑥̅ )2 𝑓𝑖 .
𝑛−1
𝑛
Поправка Бесселя – смещенность:
𝑛−1

1. Перевірка статистичних гіпотез


1. Яке твердження називають статистичною гіпотезою? Що стверджують прості й складні гіпотези? Наведіть приклади.
Статистичною гіпотезою називається будь-яке припущення щодо виду або параметрів невідомого закону розподілу. У конкретній ситуації статистичну гіпо-
тезу формулюють як припущення на певному рівні статистичної значущості про властивості генеральної сукупності за оцінками вибірки.
Розрізняють прості і складні статистичні гіпотези. Проста гіпотеза повністю визначає теоретичну функцію розподілу випадкової величини. Наприклад, гіпотеза " Н: закон
розподілу випадкової величини є нормальним з параметрами /г=0 і ег=1" є простою, а гіпотеза " Н: закон розподілу випадкової величини не є нормальним" - складною.
2. Яку гіпотезу називають нульовою? Яку гіпотезу називають альтернативною?
Статистичні гіпотези підрозділяються на нульові й альтернативні
Нульова гіпотеза позначається як H0. Це гіпотеза про відсутність відмінностей у значеннях ознак. Наприклад, гіпотеза "H0 : fi1 - fi2 = 0" читається так: "висунута нульова
гіпотеза про відсутність значущої різниці між середніми fi1 і fi2". Як правило, нульова гіпотеза - це те, що ми хочемо спростувати, якщо перед нами стоїть завдання довести
значущість відмінностей.
Альтернативна гіпотеза є логічним запереченням нульової гіпотези і позначається як H1. Природно, що це гіпотеза про існування відмінностей. Наприклад, гіпотеза "H1:
fi1 - fi2 Ф 0" читається так: "висунута альтернативна гіпотеза про наявність значущої різниці між середніми fi1 і /г2". Найчастіше альтернативна гіпотеза - це те, що ми хочемо
довести. Проте існують завдання, коли бажано підтвердити нульову гіпотезу і переконатися, наприклад, що вибірки не розрізняються між собою за якимись показниками.
3. У якому випадку при перевірці гіпотези приймається остаточне рішення? Чи може результат експерименту по перевірці гіпотез, що підтверджує справед-
ливість висунутої гіпотези, бути сумісним з іншими гіпотезами? Чому?
В результаті перевірки статистичної гіпотези, що ґрунтується на даних вибірки обмеженого обсягу, можна відхилити і прийняти нульову гіпотезу (відповідно вибір-
кові дані суперечать і узгоджуються з Н0). Звідси видно, що перевірка статистичних гіпотез пов'язана з ризиком прийняття помилкових рішень.
4. Коли має місце помилка першого роду? У чому складається помилка другого роду?
Неправильне рішення може бути прийняте у двох випадках. В зв'язку з цим розрізняють помилки двох родів.
Помилка першого роду полягає в тому, що нульова гіпотеза Н0 відхиляється, хоча в дійсності вона є правильною.
Помилка другого роду полягає в тому, що приймається нульова гіпотеза Н0, хоча насправді правильною є альтернативна гіпотеза На.
5. Яке правило називається статистичним критерієм? Які підмножини значень статистики критерію називають областю прийняття гіпотези (припустимою
областю) та критичною областю?
Статистичний критерій - це вирішальне правило, що забезпечує математично обґрунтоване прийняття істинної і відхилення помилкової гіпотези.
У множині можливих значень вибраного критерію можна виділити дві підмножини, що не перетинаються, одна з яких містить значення критерію, а друга - ні. Перша
підмножина називається критичною областю, а друга областю припустимих значень.
Критичною областю називають ті значення критерію, при яких нульова гіпотеза відхиляється. Областю припустимих значень (областю прийняття Н0) називають сукуп-
ність значень використовуваного критерію, при яких нульова гіпотеза приймається.
6. Яке правило називається статистичним критерієм? Які точки називаються критичними точками К кр? Що називається рівнем значущості?
Статистичний критерій - це вирішальне правило, що забезпечує математично обґрунтоване прийняття істинної і відхилення помилкової гіпотези.
Точки, які відділяють критичну область від області допустимих значень, називають критичними точками.
Статистична значущість (р-рівень значущості) - вірогідність того, що отриманий результат правильно представляє популяцію, вибірка з якої досліджувалася.
7. Який критерій називають критерієм згоди? Сформулюйте гіпотези, що перевіряються. Запишіть статистику критерію  2 .

Критерієм згоди називається критерій перевірки гіпотези про те, що статистичний розподіл узгоджується з яким-небудь відомим законом (нормальним і т. д.)
З множини критеріїв згоди, які використовуються при перевірці гіпотез щодо розподілів найчастіше за інші застосовують найпотужніший параметричний критерій Пірсона
(𝑛𝑖 −𝑛
̃) 2
(%2 - хі-квадрат). Його обчисляють як суму частки від ділення квадрату різниці між емпіричними і теоретичними частотами на теоретичні частоти: Х2 = ∑𝑖𝑖=1 ̃𝑖
𝑖
𝑛
де l - число інтервалів (класів, груп) на які розбито вибірковий розподіл; ni -частоти емпіричного розподілу; ni - частоти теоретичного розподілу.
8. Як визначаються теоретичні частоти й імовірності влучення значень випадкової величини X в інтервал ( xi , xi 1] при використанні критерію згоди  2 Х2 =
(𝑛𝑖 −𝑛
̃) 2
∑𝑖𝑖=1 𝑖
̃𝑖
𝑛
З формули випливає, що чим менше розбіжність між п і п , тим ближче за значенням один до одного емпіричні та теоретичні частоти, тим менше %2. При повному
збігу теоретичних і вибіркових частот %2 = 0, у протилежному випадку %2 > 0. Область зміни %2 від 0 до <ю. При великому числі ступенів свободи (к-"<ю) розподіл %2
набуває форми, близької до нормального розподілу.
Щоб оцінити близькість емпіричного і теоретичного розподілів необхідно розрахувати фактичне значення %2 і порівняти його з табличним значенням при заданому рівні
значущості (а) і відповідному числі ступенів свободи к.
Виражаючи довжину інтервалу к також в одиницях середнього квадратичного відхилення як ^ при відомому обсязі вибірки п, можна розрахувати теоретичні (очікувані)
частоти для будь-якого інтервалу, використовуючи таке співвідношення:
ℎ 1 𝑥2
𝑛̃ = 𝑛 ∗ 𝑒2
𝑆 √2𝜋
9. Сформулюйте послідовність етапів перевірки гіпотези про нормальний закон розподілу.
1. Оцінка вихідної інформації та описування статистичної моделі вибіркової сукупності.
2. Формулювання нульової і альтернативної гіпотез.
3. Встановлення рівня значущості, за допомогою якого контролюється помилка І роду.
4. Вибір найпотужнішого критерію для перевірки нульової гіпотези. Застосування
найпотужнішого критерію дозволить контролювати ймовірність появи помилки II роду.
5. Обчислення за певним алгоритмом фактичного значення критерію.
6. Визначення критичної області та області згоди з нульовою гіпотезою, тобто встановлення табличного значення критерію.
7. Зіставлення фактичного і табличного значень критерію і формулювання висновків за результатами перевірки нульової гіпотези.

Вам также может понравиться