Вы находитесь на странице: 1из 13

1 Элементы комбинаторики

Комбинаторика – раздел математики, который изучает задачи выбора и расположения элементов из некоторого основного множества
в соответствии с заданными правилами. Формулы и  принципы  комбинаторики  используются  в  теории  вероятностей для подсчета 
вероятности  случайных  событий и,  соответственно, получения законов распределения случайных величин. Это,  в  свою  очередь, 
позволяет  исследовать  закономерности массовых случайных явлений, что является весьма важным для правильного понимания 
статистических  закономерностей, проявляющихся в природе и технике.
Правила сложения и умножения в комбинаторике
Правило суммы.  Если два действия А и В взаимно исключают друг друга, причем действие А можно выполнить m способами, а В –
n способами, то выполнить одно любое из этих действий (либо А, либо В) можно n + m  способами. 
Пример 1.
В классе учится 16 мальчиков и 10 девочек. Сколькими способами можно назначить одного дежурного?
Решение
Дежурным можно назначить либо мальчика, либо девочку, т.е. дежурным может быть любой из 16 мальчиков, либо любая из 10
девочек.
По правилу суммы получаем, что одного дежурного можно назначить 16+10=26 способами.
Правило произведения.  Пусть требуется выполнить последовательно k действий. Если первое действие можно выполнить
n1 способами, второе действие n2 способами, третье – n3 способами и так до k-го действия, которое можно выполнить nk  способами,
то все k действий вместе могут быть выполнены:

способами.
Пример 2.
В классе учится 16 мальчиков и 10 девочек. Сколькими способами можно назначить двух дежурных?
Решение
Первым дежурным можно назначить либо мальчика, либо девочку. Т.к. в классе учится 16 мальчиков и 10 девочек, то назначить
первого дежурного можно 16+10=26 способами.
После того, как мы выбрали первого дежурного, второго мы можем выбрать из оставшихся 25 человек, т.е. 25-ю способами.
По теореме умножения двое дежурных могут быть выбраны 26*25=650 способами.
 Сочетания без повторений. Сочетания с повторениями
 Классической задачей комбинаторики является задача о числе сочетаний без повторений, содержание которой можно выразить
вопросом: сколькими способами можно выбрать m из n различных предметов?

Пример 3.
Необходимо выбрать в подарок 4 из 10 имеющихся различных книг. Сколькими способами можно это сделать?
Решение
Нам из 10 книг нужно выбрать 4, причем порядок выбора не имеет значения. Таким образом, нужно найти число сочетаний из 10
элементов по 4:

.
 Рассмотрим задачу о числе сочетаний с повторениями: имеется по r одинаковых предметов каждого из n различных

типов; сколькими способами можно выбрать m ( ) из этих (n*r) предметов?

.
Пример 4.
В кондитерском магазине продавались 4 сорта пирожных: наполеоны, эклеры, песочные и слоеные. Сколькими способами можно
купить 7 пирожных?
Решение
Т.к. среди 7 пирожных могут быть пирожные одного сорта, то число способов, которыми можно купить 7 пирожных, определяется
числом сочетаний с повторениями из 7 по 4.

.
 Размещения без повторений. Размещения с повторениями
 Классической задачей комбинаторики является задача о числе размещений без повторений, содержание которой можно выразить
вопросом: сколькими способами можно выбрать и разместить по m различным местам m из n различных предметов?

 
Пример 5.
В некоторой газете 12 страниц. Необходимо на страницах этой газеты поместить четыре фотографии. Сколькими способами можно
это сделать, если ни одна страница газеты не должна содержать более одной фотографии?
Решение.
В  данной  задаче мы не просто выбираем фотографии, а размещаем их на определенных страницах газеты, причем каждая страница
газеты должна содержать не более одной фотографии. Таким  образом,  задача сводится к классической задаче об определении числа
размещений без повторений из 12 элементов по 4 элемента:

Таким образом, 4 фотографии на 12 страницах можно расположить 11880 способами.


 
Также классической задачей комбинаторики является задача о числе размещений с повторениями, содержание которой можно
выразить вопросом: сколькими способами можно выбрать и разместить по m различным местам m из n
предметов,  среди которых есть одинаковые?

Пример 6.
У мальчика остались от набора для настольной игры штампы с цифрами 1, 3 и 7. Он решил с помощью этих штампов нанести на все
книги пятизначные номера– составить каталог. Сколько различных пятизначных номеров может составить мальчик?
Решение
Можно  считать,  что  опыт  состоит  в 5-кратном выборе  с возращением одной из 3 цифр (1, 3, 7). Таким образом,  число 
пятизначных  номеров  определяется  числом  размещений с повторениями из 3 элементов по 5:
.
 Перестановки без повторений. Перестановки с повторениями
 Классической задачей комбинаторики является задача о числе перестановок без повторения, содержание которой можно выразить
вопросом: сколькими способами можно разместить n различных предметов на n различных местах?

Пример 7.
Сколько можно составить четырехбуквенных «слов» из букв слова«брак»?
Решение
Генеральной  совокупностью  являются 4  буквы слова  «брак» (б, р, а, к). Число  «слов» определяется перестановками этих 4 букв, т.
е.

Для случая, когда среди выбираемых n элементов есть одинаковые (выборка с возвращением), задачу о числе перестановок с
повторениями можно выразить вопросом: сколькими способами можно переставить n предметов, расположенных на n различных
местах, если среди n предметов имеются k различных типов (k < n), т. е. есть одинаковые предметы.

Пример 8.
Сколько разных буквосочетаний можно сделать из букв слова «Миссисипи»?
Решение
Здесь 1 буква  «м», 4 буквы «и», 3 буквы «c» и 1 буква  «п», всего 9 букв. Следовательно, число перестановок с повторениями равно

2 понятие события. Основные определения. Действия над событиями стр1-2


3 Классическое определение вероятности. Стр6
4Основные теоремы теории вероятности. Сложение и умножение
Теорема сложения вероятностей
Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:
Р(А+В) = Р(А) + Р(В) (1)
Теорема сложения вероятностей применима к любому числу несовместных событий. В общем виде ее удобно записать:
Р(∑Ai) = ∑Р(Ai) (2)
Отметим следствия вытекающие из теоремы сложения вероятностей.
Следствие 1: Если события А1, А2, …, Аn образуют полную группу несовместных событий, то сумма их вероятностей равна
единице:
∑Р(Ai) = 1 (3)
Перед тем как вывести второе следствие теоремы сложения, введем понятие «противоположные события».
Противоположными событиями называются два несовместных события, образующих полную группу. Событие противоположное
событию А принято обозначать A.
Пример:
Событие А – безотказная работа всех элементов технической системы; A — отказ хотя бы одного элемента.
Следствие 2: Сумма вероятностей противоположных событий равна единице:
P(A) + P(A) =1 (4)
Следствие 2 есть частный случай следствия 1.
Вероятность суммы двух совместных событий выражается формулой:
Р(А+В) = Р(А) + Р(В) – P(AB) (5)
Аналогично вероятность суммы трех совместных событий вычисляется по формуле:
Р(А+В+С) = Р(А) + Р(В) + Р(С) – P(AB) – P(AС) – P(ВС) + Р(АВС) (6)
Общая формула для вероятности суммы любого числа совместных событий:
Р(∑Ai) = ∑Р(Ai) — ∑Р(AiAj) + ∑Р(AiAjAk) — (-1)n-1P(A1A2…An) (7)
где суммы распространяются на различные значения индексов i; i, j; i, j, k и т.д.
Из формул (5) и (6) можно записать аналогичную формулу для произведения событий
P(AB) = Р(А) + Р(В) – Р(А+В) (8)
Р(АВС) = Р(А) + Р(В) + Р(С) – P(A+B) – P(A+С) – P(В+С) + Р(А+В+С) (9)
Теорема умножения вероятностей
Введем понятие независимые и зависимые события.
Событие А называется независимым от события В, если вероятность события А не зависит от того, произошло событие В или нет.
Событие А называют зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В
или нет.
Вероятность события А, вычисленная при условии, что имело место другое событие В, называется условной вероятностью события
А и обозначается Р (А/В)
Пример:
В урне два белых и один черный. Два лица вынимают из урны по одному шару. Рассматриваются события: А- появление белого
шара у 1-го лица; В – появление белого шара у 2-го лица.
Решение: Р(А) до того как произошло событие В равно 2/3. Если событие В произошло, то Р(А)=1/2. Таким образом, событие А
зависит от события В.
Условие независимости события А от события В можно записать в виде:
Р(А/В) = P(A) (10)
а, условие зависимости: Р(А/В) ≠ P(A) (11)
Теорема умножения: Вероятность произведения двух событий равна произведению вероятности
Р(АВ) = P(A)⋅Р(В/А) (12)
Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого
следующего по порядку события вычисляется при условии, что все предыдущие имели место:
Р(А1А2…Аn ) = P(A1)⋅Р(А2/А1)⋅Р(А3/А1А2)⋅…⋅Р(Аn/А1А2…А n-1) (13)
Следствие 1: Если событие А не зависит от события В, то и событие В не зависит от события А
Следствие 2: Вероятность произведения двух независимых событий равна произведению вероятностей этих событий
P(AВ) = P(А)⋅Р(В) (14)
Р(А1А2…Аn ) = P(A1)⋅Р(А2)⋅….⋅Р(Аn) (15)
5 Понятие условные вероятности
Условной вероятностью PA(B)=P(B|A)PA(B)=P(B|A) (два обозначения) называют вероятность события ВВ, вычисленную в
предположении, что событие АА уже наступило.
Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную
вероятность второго, вычисленную при условии, что первое событие произошло, т.е.
P(AB)=P(B)⋅P(A|B)=P(A)⋅P(B|A).P(AB)=P(B)⋅P(A|B)=P(A)⋅P(B|A).
В частности, отсюда получаем формулы для условной вероятности:
P(A|B)=P(AB)P(B),P(B|A)=P(AB)P(A).
Примеры
Пример. В урне находятся 3 белых шара и 2 черных. Из урны вынимается один шар, а затем второй. Событие В – появление белого
шара при первом вынимании. Событие А – появление белого шара при втором вынимании.
Решение. Очевидно, что вероятность события А, если событие В произошло, будет

.
Вероятность события А при условии, что событие В не произошло, будет

.
Пример. В урне 3 белых и 3 черных шара. Из урны дважды вынимают по одному шару, не возвращая их обратно. Найти вероятность
появления белого шара при втором испытании (событие В), если при первом испытании был извлечен черный шар (событие А).

Решение. После первого испытания в урне осталось 5 шаров, из них 3 белых. Искомая условная вероятность  .
Этот же результат можно получить по формуле

.
Действительно, вероятность появления белого шара при первом испытании

Найдем вероятность   того, что в первом испытании появится черный шар, а во втором — белый. Общее число исходов —

совместного появления двух шаров, безразлично какого цвета, равно числу размещений  . Из этого числа исходов

событию   благоприятствуют   исходов. Следовательно,  .


Искомая условная вероятность

Результаты совпали.
Пример. В трамвайном парке имеются 15 трамваев маршрута №1 и 10 трамваев маршрута №2. Какова вероятность того, что вторым
по счету на линию выйдет трамвай маршрута №1?
Решение. Пусть А - событие, состоящее в том, что на линию вышел трамвай маршрута №1, В - маршрута №2.
Рассмотрим все события, которые могут при этом быть (в условиях нашей задачи):  . Из них нас будут
интересовать только первое и третье, когда вторым выйдет трамвай маршрута №1.
Так как все эти события совместны, то:

;
отсюда искомая вероятность

Пример. Какова вероятность того, что 2 карты, вынутые из колоды в 36 карт, окажутся одной масти?
Решение. Сначала подсчитаем вероятность того, что две карты окажутся одной определенной масти (например «пики»). Пусть А -
появление первой карты такой масти, В - появление второй карты той же масти. Событие В зависит от события А, т.к. его
вероятность меняется от того, произошло или нет событие А. Поэтому придется воспользоваться теоремой умножения в ее общей
форме:

где   (после вынимания первой карты осталось 35 карт, из них той же масти, что и первая - 8).
Получаем

.
События, состоящие в том, что будут вынуты две карты масти «пики», масти «треф» и т.д., несовместны друг с другом.
Следовательно, для нахождения вероятности их объединения воспользуемся теоремой сложения:

6 Формула полной вероятности стр13


7 Формула Байеса стр15
8 Последовательность независимых испытаний. Формула Бернулли стр17
9 Понятие случайной величины. Классификация случайных величин
Определение. Случайной величиной называется переменная величина, которая принимает свои значения в зависимости от исхода
случайного эксперимента, причем каждому исходу соответствует единственное значение случайной величины.
Случайные величины обозначаются большими буквами латинского алфавита X,Y,Z…, а их значения соответствующими малыми
буквами с индексами.
Общая классификация возможных типов случайных величин может быть представлена с помощью следующей схемы.
Error: Reference source not foundОпределение. Если в качестве результата случайного эксперимента регистрируется одно число, то
соответствующую величину называют одномерной или скалярной. Если результатом случайного эксперимента является
регистрация определенного набора характеристик, то соответствующую случайную величину
называют многомерной или векторной.
Определение. Одномерную случайную величину называют дискретной, если множество ее возможных значений конечно или
счетно (образует последовательность).
Например,
Определение. Случайная величина называется непрерывной, если множество ее значений бесконечно и полностью заполняет
некоторый промежуток: конечный или бесконечный.
10 Закон распределения случайной величины. Способы его задания. вложенный листик
11 Действия над случайными величинами
Сумма случайных величин X и Y — это новая случайная величина Z = X + Y, принимающая вес значения вида = х, + yj с
вероятностями

где ptj = Р((Х = хг) • (У = у у)).


Если при этом случайные величины X и Y независимы, то

Разностью случайных величин называется новая случайная величина Z = X - Y, для которой

где Ру =Р((Х = хг) ? (Y = у у)).


Произведением случайных величин называется новая случайная величина Z = XY, принимающая вес значения вида = Xjyj с
вероятностями

где Ру =Р((Х = х{) • (У = уj)).

12 Математическое ожидания дискретной случайной величины. Свойства. Стр21-22

25 Правило «трех сигм»


Преобразуем формулу P(|X−a|≺ξ)=2Φ(ξσ)P(|X−a|≺ξ)=2Φ(ξσ)
Положим ξ=t⋅σξ=t⋅σполучим P(|X−a|≺σ⋅t)=2Φ(t⋅σσ)P(|X−a|≺σ⋅t)=2Φ(t⋅σσ)
Если t=n,тоσt=nσt=n,тоσt=nσ, тогда P(|X−a|
≺nσ)=2Φ(n)=⎧⎩⎨⎪⎪0,6826,n=1Φ(1)=0,34130,9545,n=2Φ(2)=0,47720,9973,n=3Φ(3)=0,4986P(|X−a|
≺nσ)=2Φ(n)={0,6826,n=1Φ(1)=0,34130,9545,n=2Φ(2)=0,47720,9973,n=3Φ(3)=0,4986
P(|X−a|<σ)=P(a−σ<X<σ+a)=0,6826P(|X−a|<2σ)=P(a−2σ<X<2σ+a)=0,9545P(|X−a|<3σ)=P(a−3σ<X<3σ+a)=0,9973P(|X−a|
<σ)=P(a−σ<X<σ+a)=0,6826P(|X−a|<2σ)=P(a−2σ<X<2σ+a)=0,9545P(|X−a|<3σ)=P(a−3σ<X<3σ+a)=0,9973
Суть правила
Если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не
превосходит утроенного среднего квадратического отклонения.
Вероятность того, что отклонение по абсолютной величине будет меньше утроенного среднего квадратического отклонения равно
0,9973
На практике: если распределение случайной величины неизвестно, но условие, указанное в данном правиле выполняется, то есть
основание предполагать, что случайная величина распределена нормально.
26 Основные задачи математической статистики
Все задачи математической статистики касаются вопросов обработки наблюдений над массовыми случайными явлениями, но в
зависимости от характера решаемого практического вопроса и от объема имеющегося экспериментального материала эти задачи
могут принимать ту или иную форму.
Охарактеризуем вкратце некоторые типичные задачи математической статистики, часто встречаемые на практике.
 
1. Задача определения закона распределения случайной величины (или системы случайных величин) по статистическим
данным
 
Мы уже указывали, что закономерности, наблюдаемые в массовых случайных явлениях, проявляются тем точнее и отчетливее, чем
больше объем статистического материала. При обработке обширных по своему объему статистических данных часто возникает
вопрос об определении законов распределения тех или иных случайных величин. Теоретически при достаточном количестве опытов
свойственные этим случайным величинам закономерности будут осуществляться сколь угодно точно. На практике нам всегда
приходится иметь дело с ограниченным количеством экспериментальных данных; в связи с этим результаты  наших наблюдений и
их обработки всегда содержат больший или меньший элемент случайности. Возникает вопрос о том, какие черты наблюдаемого
явления относятся к постоянным, устойчивым и действительно присущи ему, а какие являются случайными и проявляются в данной
серии наблюдений только за счет ограниченного объема экспериментальных данных. Естественно, к методике обработки
экспериментальных данных следует предъявить такие требования, чтобы она, по возможности, сохраняла типичные, характерные
черты наблюдаемого явления и отбрасывала все несущественное, второстепенное, связанное с недостаточным объемом опытного
материала. В связи с этим возникает характерная для математической статистики задача сглаживания или выравнивания
статистических данных, представления их в наиболее компактном виде с помощью простых аналитических зависимостей.
 
2. Задача проверки правдоподобия гипотез
 
Эта задача тесно связана с предыдущей; при решении такого рода задач мы обычно не располагаем настолько обширным
статистическим материалом, чтобы выявляющиеся в нем статистические закономерности были в достаточной мере свободны от
элементов случайности. Статистический материал может с большим или меньшим правдоподобием подтверждать или не
подтверждать справедливость той или иной гипотезы. Например, может возникнуть такой вопрос: согласуются ли результаты
эксперимента с гипотезой о том, что данная случайная величина подчинена закону распределения  ? Другой подобный вопрос:
указывает ли наблюденная в опыте тенденция к зависимости между двумя случайными величинами на наличие действительной
объективной зависимости между ними или же она объясняется случайными причинами, связанными с недостаточным объемом
наблюдений? Для решения подобных вопросов математическая статистика выработала ряд специальных приемов.
 
3. Задача нахождения неизвестных параметров распределения
 
Часто при обработке статистического материала вовсе не возникает вопрос об определении законов распределения исследуемых
случайных величин. Обыкновенно это бывает связано с крайне недостаточным объемом экспериментального материала. Иногда же
характер закона распределения качественно известен до опыта, из теоретических соображений; например, часто можно утверждать
заранее, что случайная величина подчинена нормальному закону. Тогда возникает более узкая задача обработки наблюдений –
определить только некоторые параметры (числовые характеристики) случайной величины или системы случайных величин. При
небольшом числе опытов задача более или менее точного определения этих параметров е может быть решена; в этих случаях
экспериментальный материал содержит в себе неизбежно значительный элемент случайности; поэтому случайными оказываются и
все параметры, вычисленные на основе этих данных. В таких условиях может быть поставлена только задача об определении так
называемых «оценок» или «подходящих значений» для искомых параметров, т.е. таких приближенных значений, которые при
массовом применении приводили бы в среднем к меньшим ошибкам, чем всякие другие. С задачей отыскания «подходящих
значений» числовых характеристик тесно связана задача оценки их точности и надежности. С подобными задачами мы встретимся в
главе 14.

27 Понятие генеральной совокупности и выборки


Основными понятиями математической статистики являются генеральная совокупность и выборка.
Определение. Генеральная совокупность – это совокупность всех мысленно возможных объектов данного вида, над
которыми проводятся наблюдения с целью получения конкретных значений определенной случайной величины.
Генеральная совокупность может быть конечной или бесконечной в зависимости от того, конечна или бесконечна
совокупность составляющих ее объектов.
Не следует смешивать понятие генеральной совокупности с реально существующими совокупностями. Например, на склад
поступила продукция некоторого цеха за месяц, что является реально существующей совокупностью, которую нельзя назвать
генеральной, поскольку выпуск продукции можно мысленно продолжить сколь угодно долго.
Определение. Выборкой (выборочной совокупностью) называется совокупность случайно отобранных объектов из
генеральной совокупности.
Выборка должна быть репрезентативной (представительной), то есть ее объекты должны достаточно хорошо отражать
свойства генеральной совокупности.
Выборка может быть повторной, при которой отобранный объект (перед отбором следующего) возвращается в генеральную
совокупность, и бесповторной, при которой отобранный объект не возвращается в генеральную совокупность.
Применяют различные способы получения выборки.
1) Простой отбор – случайное извлечение объектов из генеральной совокупности с возвратом или без возврата.
2) Типический отбор, когда объекты отбираются не из всей генеральной совокупности, а из ее «типической» части.
3) Серийный отбор – объекты отбираются из генеральной совокупности не по одному, а сериями.
4) Механический отбор - генеральная совокупность «механически» делится на столько частей, сколько объектов должно
войти в выборку и из каждой части выбирается один объект.

Число N объектов генеральной совокупности и число n объектов выборки называют объемами генеральной и

выборочной совокупностей соответственно. При этом предполагают, что N >> n (значительно больше).

28 Дискретные интервальные варационные ряды. Их графическое представление


Признак называется дискретно варьируемым, если его отдельные значения (варианты) отличаются друг от друга на некоторую
конечную величину (обычно целое число). Вариационный ряд такого признака называется дискретным вариационным рядом.
Таблица 1. Общий вид дискретного вариационного ряда частот
Значения признака xi x1 x2 … xn

Частоты mi m1 m2 … mn

Признак называется непрерывно варьирующим, если его значения отличаются друг от друга на сколь угодно малую величину, т.е.
признак может принимать любые значения в некотором интервале. Непрерывный вариационный ряд для такого признака называется
интервальным.
Таблица 2. Общий вид интервального вариационного ряда частот
Интервалы ai – ai+1 a1 – a2 a2 – a3 … ak – ak+1

Частоты mi m1 m2 … mn
Таблица 3. Графические изображения вариационного ряда
Ряд Полигон или гистограмма Кумулята Эмпирическая функция
распределения

Дискретный

Интервальный

Просматривая результаты проведенных наблюдений, определяют, сколько значений вариантов попало в каждый конкретный
интервал. Предполагается, что каждому интервалу принадлежит один из его концов: либо во всех случаях левые (чаще), либо во всех
случаях правые, а частоты или частости показывают число вариантов, заключенных в указанных границах. Разности ai –
ai+1  называются частичными интервалами. Для упрощения последующих расчетов интервальный вариационный ряд можно заменить
условно дискретным. В этом случае серединное значение i-го интервала принимают за вариант xi, а соответствующую интервальную
частоту mi – за частоту этого интервала.
Для графического изображения вариационных рядов наиболее часто используются полигон, гистограмма, кумулятивная кривая и
эмпирическая функция распределения.
29 Характеристики вариационных рядов ( среднее, дисперсия, эмпирическая функция распределения)
Эмпирической функцией pacпpeдeлeнuя  называется относительная частота (частость) того, что признак (случайная
величина х) примет значение, меньшее заданного х, т.е.

Другими словами, для данного х эмпирическая функция распределения представляет накопленную частость:  .
Вариационный ряд является статистическим аналогом (реализацией) распределения признака (случайной величины Х).
Вариационный ряд содержит достаточно полную информацию об изменчивости (вариации) признака. Однако обилие числовых
данных, с помощью которых он задается, усложняет их использование. В то же время на практике часто оказывается достаточным
знание лишь сводных характеристик вариационных рядов: средних или характеристик центральной тенденции; характеристик
изменчивости (вариации) и др.
Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие частоты,
деленная на сумму частот:

где  - варианты дискретного ряда или середины интервалов интервального вариационного ряда; - соответствующие им

частоты;m - число неповторяющихся вариантов или число интервалов;  .

Очевидно, что  , где - частости вариантов или интервалов.


Основные свойства средней арифметической.
1. Средняя арифметическая постоянной равна самой постоянной.
2. Если все варианты увеличить (уменьшить) в одно и то же число раз, то средняя арифметическая увеличится (уменьшится) во
столько же раз:

.
3. Если все варианты увеличить (уменьшить) на одно и то же число, то средняя арифметическая увеличится (уменьшится) на то же
число:
.
4. Средняя арифметическая отклонений вариантов от средней арифметической равна нулю:

.
5. Средняя арифметическая алгебраической суммы нескольких признаков равна такой же сумме средних арифметических этих
признаков:
.
6. Если ряд состоит из нескольких групп, общая средняя равна средней арифметической групповых средних, причем весами
являются объемы групп:

где  - общая средняя (средняя арифметическая всего ряда); - групповая средняя i-й группы, объем которой равен ;l - число
групп.
Дисперсией  вариационного ряда называется средняя арифметическая квадратов отклонений вариантов от их средней
арифметической:

Формулу для дисперсии вариационного ряда можно записать в виде: 

где  .

Для несгруппированного ряда  : .


Дисперсию  часто называют эмпирической или выборочной, подчеркивая, что она (в отличие от дисперсии СВ) находится по
опытным или статистическим данным.
Вычисление средней арифметической  и дисперсии вариационного ряда можно упростить, если использовать не
первоначальные варианты (i = 1, 2, ..., m), а новые варианты:

, (1)
где с и k - специально подобранные постоянные.
Согласно свойствам 2 и 3 средней арифметической и дисперсии:

, (2)

, (3)
Откуда
(4)

. (5)

Затем, получим  (6)


Теперь, заменяя в (4) и (5)  и их выражениями и через варианты , получим

, (7)

, (8)
где  определяются по (1).
Формулы (7) и (8) дадут заметное упрощение расчетов, если в качестве постоянной k взять величину (ширину) интервала по x, а в
качестве с - середину серединного интервала. Если серединных интервалов два (при четном числе интервалов), то в качестве с
рекомендуется взять середину одного из этих интервалов, например, имеющего большую частоту
30 Мода, медиана и их находжение
Мода (Mo) представляет собой значение изучаемого признака, повторяющееся с наибольшей частотой, т.е. мода – значение
признака, встречающееся чаще всего.
Медианой (Me) называется значение признака, приходящееся на середину ранжированной (упорядоченной) совокупности, т.е.
медиана – центральное значение вариационного ряда.
Главное свойство медианы заключается в том, что сумма абсолютных отклонений значений признака от медианы меньше, чем от
любой другой величины ∑|xi - Me|=min.
В отличие от дискретных вариационных рядов определение моды и медианы по интервальным рядам требует проведения
определенных расчетов на основе следующих формул:

, (6)
где x0 – нижняя граница модального интервала (модальным называется интервал, имеющий наибольшую частоту);
i – величина модального интервала;
fMo – частота модального интервала;
fMo-1 – частота интервала, предшествующего модальному;
fMo+1 – частота интервала, следующего за модальным.

 (7)
где x0 – нижняя граница медианного интервала (медианным называется первый интервал, накопленная частота которого превышает
половину общей суммы частот);
i – величина медианного интервала;
SMe-1 – накопленная интервала, предшествующего медианному;
fMe – частота медианного интервала.
Проиллюстрируем применение этих формул, используя данные табл. 3.
Интервал с границами 60 – 80 в данном распределении будет модальным, т.к. он имеет наибольшую частоту. Использую формулу
(6), определим моду:

Для установления медианного интервала необходимо определять накопленную частоту каждого последующего интервала до тех пор,
пока она не превысит половины суммы накопленных частот (в нашем случае 50 %) (табл. 11).
31 Выборочный моменты, асимметрия и эксцесс
Приведем краткий обзор характеристик, которые наряду с уже рассмотренными применяются для анализа статистических рядов и
являются аналогами соответствующих числовых характеристик случайной величины.
Среднее выборочное и выборочная дисперсия являются частным случаем более общего понятия – момента статистического
ряда.

Определение. Начальным выборочным моментом порядка l называется среднее арифметическое l - х степеней всех
значений выборки:
m m
1
ν l = ∑ x li⋅ni ν l =∑ x li⋅pi
¿ ¿ ¿
n i=1 или i =1 .
m
¿ 1
ν 1 = ∑ x i⋅ni=x в
Из определения следует, что начальный выборочный момент первого порядка:
n i=1 .

Определение. Центральным выборочным моментом порядка l называется среднее арифметическое l -х

степеней отклонений наблюдаемых значений выборки от выборочного среднего


xв :
m m
1
x i −x в )l⋅n i μl =∑ ( x i−x в ) l⋅pi
¿ ¿ ¿
μl = ∑ (
n i=1 или i=1 .
Из определения следует, что центральный выборочный момент второго порядка :
m
1
μ2 = ∑ ( x i −x в )2⋅ni=D в=σ 2в
¿
n i =1 .

Определение. Выборочным коэффициентом асимметрии называется число


A ¿s , определяемое формулой:
¿
¿
μ3
A s=
σ 3в .
Выборочный коэффициент асимметрии служит для характеристики асимметрии полигона вариационного ряда. Если полигон
асимметричен, то одна из ветвей его, начиная с вершины, имеет более пологий «спуск», чем другая.

Если
A ¿s <0, то более пологий «спуск» полигона наблюдается слева; если
A ¿s >0 - справа. В первом случае
асимметрию называют левосторонней, а во втором - правосторонней.

Определение. Выборочным коэффициентом эксцесса или коэффициентом крутости называется число


E¿k ,
определяемое формулой :
¿
¿ 4 μ
Ek = −3
.
σ в4
Выборочный коэффициент эксцесса служит для сравнения на «крутость» выборочного распределения с нормальным
распределением.
Коэффициент эксцесса для случайной величины, распределенной по нормальному закону, равен нулю.

Поэтому за стандартное значение выборочного коэффициента эксцесса принимают


E¿k =0 .
¿
Если
Ek <0 , то полигон имеет более пологую вершину по сравнению с нормальной кривой; если
E¿k >0 , то
полигон более крутой по сравнению с нормальной кривой.

32 Критерии согласия Пирсона


Критерий Пирсона, или критерий χ2(Хи-квадрат) - применяют для проверки гипотезы о соответствии эмпирического распределения
предполагаемому теоретическому распределению F(x) при большом объеме выборки (n ≥ 100). Критерий применим для любых видов
функции F(x), даже при неизвестных значениях их параметров, что обычно имеет место при анализе результатов механических
испытаний. В этом заключается его универсальность.
Использование критерия χ2 предусматривает разбиение размаха варьирования выборки на интервалы и определения числа
наблюдений (частоты) для каждого из интервалов. Для удобства оценок параметров распределения интервалы выбирают одинаковой
длины. Число интервалов зависит от объема выборки.
Недостатком критерия согласия Пирсона является потеря части первоначальной информации, связанная с необходимостью
группировки результатов наблюдений в интервалы и объединения отдельных интервалов с малым числом наблюдений. В связи с
этим рекомендуется дополнять проверку соответствия распределений по критерию χ2 другими критериями. Особенно это
необходимо при сравнительно малом объеме выборки (n ≈ 100).
Статистика критерия
Для проверки критерия вводится статистика:

Где:

 . Предполагаемая вероятность попадания в i-й интервал;

 . Соответствующее эмпирическое значение;


 ni. Число элементов выборки из i-го интервала.
Эта величина в свою очередь является случайной (в силу случайности X) и должна подчиняться распределению χ2.
Правило критерия
Если полученная статистика превосходит квантиль закона распределения χ2 заданного уровня значимости α с (k - 1) или с (k -  p - 1)
степенями свободы, где k - число наблюдений или число интервалов (для случая интервального вариационного ряда), а p — число
оцениваемых параметров закона распределения, то гипотеза H0 отвергается. В противном случае гипотеза принимается на заданном
уровне значимости α.

33 Критерии согласия Колмогорова


Критерий согласия Колмогорова применяется для проверки статистических гипотез о законе распределения с известным видом
распределения и известными параметрами.
Имеется выборка X=(X1,…,Xn) из распределения F. Проверяется простая гипотеза H1={F=F1} против сложной
альтернативы H2={F≠F1}. В том случае, когда распределение F1 имеет непрерывную функцию распределения F1, можно
использовать критерий Колмогорова. Пусть
ρ(X)=n√supy|F∗n(y)−F1(y)|.
Покажем, что ρ(X) удовлетворяет следующим условиям:
 Если H1 верна, то Xi имеют распределение F1. По теореме Колмогорова ρ(X)⇒η, где η имеет распределение с функцией
распределения Колмогорова.
 Если гипотеза H1 неверна, то Xi имеют какое-то распределение F2, отличное от F1. По теореме Гливенко-
Кантелли F∗n(y)⟶pF2(y) для любого y при n→1. Поскольку F1≠F2, найдётся y0 такое, что ∣∣F2(y0)−F1(y0)∣∣>0. Но
supy|F∗n(y)−F1(y)|⩾∣∣F∗n(y0)−F1(y0)∣∣⟶p∣∣F2(y0)−F1(y0)∣∣>0
Умножая на n√, получим при n→1, что ρ(X)=n√supy|F∗n(y)−F1(y)|⟶p1.
Пусть случайная величина η имеет распределение с функцией распределения Колмогорова
K(y)=∑j=−11(−1)je−2j2y2,y>0
Это распределение табулировано, так что по заданному ε легко найти C такое, что ε=P(η⩾C).
Критерий Колмогорова выглядит следующим образом:
δ(X)={H1,H2,if ρ(X)<Cif ρ(X)⩾Cnl:Kolmogorov-Smirnovtoetssu:Uji Kolmogorov-Smirnov

34 Основные задачи кореляционного и регресивного анализа


Задачи корреляционного анализа:
1.Изменение степени связности (тесноты, силы, строгости, интенсивности) двух и более явлений. Корреляционный анализ может
служить также инструментом для обнаружения еще не известных связей.
2. Отбор фактов, оказывающих наиболее существенное влияние на результативный признак, на основании измерения степени
связанности между явлениями. Отобранные факторы используют для дальнейшего анализа.
3. Обнаружение неизвестных причинных связей. Корреляция непосредственно не выявляет причинных связей между явлениями, но
устанавливает степень необходимости этих связей и достоверность суждения об их наличии.
Задачи регрессионного анализа:
1. Установление формы зависимости.
2. Определение функции регрессии. Процесс нахождения функции регрессии называют выравниванием отдельных значений
зависимой переменной.
3. Оценка неизвестных значений зависимой переменной.

35 Свойства коефициента кореляции


Коэффициент корреляции является одним из самых распространенных способов измерения связи между случайными переменными.
Рассмотрим некоторые свойства этого коэффициента.
Теорема 1. Коэффициент корреляции принимает значения на интервале (-1, +1).
Доказательство. Докажем справедливость утверждения для случая дискретных переменных. Запишем явно неотрицательное
выражение:

Возведём выражение под знаком суммы в квадрат:

Первое и третье из слагаемых равны единице, поскольку из определения дисперсии следует, что — и

. Таким образом, окончательно получаем 1±2ρ+1≥0, откуда -l≤ρ≤+1.


Если коэффициент корреляции положителен, то связь между переменными также положительна и значения переменных
увеличиваются или уменьшаются одновременно. Если коэффициент корреляции имеет отрицательное значение, то при увеличении
одной переменной уменьшается другая.
Приведём следующее важное свойство коэффициента корреляции: коэффициент корреляции не зависит от выбора начала отсчёта и
единицы измерения, т. е. от любых постоянных  и , и таких, что >0 и >0, т.е.
.
Таким образом, переменные X и Y можно уменьшать или увеличивать в а раз, а также вычитать или прибавлять к
значениям X и Y одно и то же число b. В результате величина коэффициента корреляции не изменится.
Если коэффициент корреляции  , то случайные переменные некоррелированы. Понятие некоррелированности не следует
смешивать с понятием независимости, независимые величины всегда некоррелированы. Однако обратное утверждение невероятно:
некоррелированные величины могут быть зависимы и даже функционально, однако эта связь не линейная.
Выборочный коэффициент корреляции вычисляют по формуле (1.2). Имеется несколько модификаций этой формулы, которые
удобно использовать при той или иной форме представления исходной информации. Так, при малом числе наблюдений выборочный
коэффициент корреляции удобно вычислять по формуле

Если информация имеет вид корреляционной таблицы (см. п 1.5), то удобно пользоваться формулой

, (1.5)
где  — суммарная частота наблюдаемого значения признаках при всех значениях у; —
суммарная частота наблюдаемого значения признакаупри всех значениях х;  — частота появления пары признаков (х, у).
Из формулы (1.2) очевидно, что  , т.е. величина выборочного коэффициента корреляции не зависит от порядка следования
переменных, поэтому обычно пишут простоr.

36 Уровнение линейной регресии, построение его по данным кореляционной таблицы