Вы находитесь на странице: 1из 219

Ariadna Lucia Pletea Liliana Popa

TEORIA PROBABILITĂŢILOR

UNIVERSITATEA TEHNICĂ ” GH. ASACHI”,

IAŞI 1999
Cuprins

Introducere 5

1 Câmp de probabilitate 7
1.1 Câmp finit de evenimente . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Câmp finit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Metode de numărare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Moduri de selectare a elementelor . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Definiţia axiomatică a probabilităţii . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Formule probabilistice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.7 Scheme clasice de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . 26
1.8 Câmp infinit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Variabile aleatoare discrete 43


2.1 Definiţia şi clasificarea variabilelor aleatoare . . . . . . . . . . . . . . . . . 43
2.2 Variabile aleatoare discrete simple . . . . . . . . . . . . . . . . . . . . . . . 44
2.3 Exemple de variabile aleatoare discrete simple . . . . . . . . . . . . . . . . 61
2.4 Variabile aleatoare discrete simple bidimensionale . . . . . . . . . . . . . . 65
2.5 Variabile aleatoare cu un număr infinit numărabil de valori . . . . . . . . . 68
2.6 Funcţia generatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.7 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3 Variabile aleatoare continue 81


3.1 Funcţia de repartiţie a unei variabile aleatoare unidimensionale . . . . . . . 81
3.2 Densitatea de probabilitate. Repartiţia normală . . . . . . . . . . . . . . . 88
3.3 Funcţia de repartiţie multidimensională. Transformări . . . . . . . . . . . . 95
3.4 Valori caracteristice ale unei variabile aleatoare . . . . . . . . . . . . . . . 108
3.5 Funcţia caracteristică a unei variabile aleatoare . . . . . . . . . . . . . . . 117
3.6 Variabile aleatoare continue clasice şi legăturile dintre ele . . . . . . . . . . 126
3.7 Fiabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

4 Probleme la limită ı̂n teoria probabilităţilor 155


4.1 Convergenţa ı̂n probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Legea numerelor mari (forma slabă) . . . . . . . . . . . . . . . . . . . . . . 156
4.3 Aproximări pentru repartiţii discrete . . . . . . . . . . . . . . . . . . . . . 161

3
4.4 Convergenţa ı̂n repartiţie. Teorema limită centrală . . . . . . . . . . . . . . 164
4.5 Legătura dintre convergenţa şirurilor funcţiilor de repartiţie şi convergenţa
şirurilor funcţiilor caracteristice . . . . . . . . . . . . . . . . . . . . . . . . 177
4.6 Convergenţa aproape sigură . . . . . . . . . . . . . . . . . . . . . . . . . . 181
4.7 Convergenţa ı̂n medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.8 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

5 Procese stochastice 187


5.1 Lanţuri Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2 Procese Markov continue. Procese Poisson . . . . . . . . . . . . . . . . . . 200
5.3 Procese stochastice staţionare . . . . . . . . . . . . . . . . . . . . . . . . . 206
Introducere

Numeroase probleme practice din variate domenii de activitate, ca: ingineria electrică,
radio, transmisia de date, calculatoare, teoria informaţiei, fiabilitatea sistemelor şi altele,
conduc la studiul unor fenomene şi procese aleatoare. Evaluarea şanselor lor de producere
constituie obiectul disciplinei teoria probabilităţilor.
Cursul de Teoria probabilităţilor are atât un caracter informativ, furnizând studenţi-
lor noţiuni şi rezultate fundamentale cu care vor opera ı̂n cadrul specialităţilor lor, cât
şi formativ, acomodându-i cu raţionamente matematice, dintre care unele vor fi necesare
prelucrării pe calculator a datelor.
Cursul este alcătuit din cinci capitole.
Capitolul I, intitulat ”Câmp de probabilitate” introduce noţiunea de câmp de pro-
babilitate, cadru ı̂n care se defineşte axiomatic noţiunea de probabilitate. Sunt trecute
ı̂n revistă formule şi scheme clasice de probabilitate. Elementele de teorie sunt ı̂nsoţite
de exemple, dintre care unele cu referire la situaţii tehnice privind controlul de calitate,
transmiterea informaţiei etc.
Cuprinde paragrafele: 1.Câmp finit de evenimente; 2.Câmp finit de probabilitate;
3. Metode de numărare; 4.Moduri de selectare a elementelor; 5.Definiţia axiomatică a
probabilităţii; 6.Formule probabilistice; 7.Scheme clasice de probabilitate; 8.Câmp infinit
de probabilitate.
Capitolul II, intitulat ”Variabile aleatoare discrete”cuprinde paragrafele 1.Definiţia
şi clasificarea variabilelor aleatoare; 2.Variabile aleatoare discrete simple; 3.Exemple de
variabile aleatoare discrete simple; 4.Variabile aleatoare discrete simple bidimensionale;
5.Variabile aleatoare cu un număr infinit numărabil de valori.
Este scos ı̂n evidenţă rolul distribuţiei Poisson, a evenimentelor rare ı̂n numeroase
aplicaţii tehnice.
Capitolul III, intitulat ”Variabile aleatoare continue”, cuprinde paragrafele: 1.Func-
ţia de repartiţie a unei variabile aleatoare unidimnesionale; 2.Densitatea de probabi-
litate.Repartiţia normală;3.Funcţia de repartiţie multidimensională.Transformări; 4.Va-
lori caracteristice ale unei variabile aleatoare. 5.Funcţia caracteristică a unei variabile
aleatoare; 6.Variabile aleatoare continue clasice şi legăturile dintre ele; 7.Fiabilitate.
Este scos ı̂n evidenţă rolul legii lui Gauss ı̂n studiul erorilor accidentale de măsurare.
Capitolul IV, intitulat ”Probleme la limită ı̂n teoria probabilităţilor”, cuprinde para-
grafele: 1.Convergenţa ı̂n probabilitate a şirurilor de variabile aleatoare; 2.Legea nu-
merelor mari (forma slabă); 3.Aproximări pentru distribuţii discrete; 4.Convergenţa ı̂n
repartiţie. Teorema limită centrală; 5.Legătura dintre convergenţa funcţiilor de repartiţie
şi convergenţa funcţiilor caracteristice; 6.Convergenţa aproape sigură; 7.Convergenţa ı̂n
medie.
Scopul acestui capitol este de a pune ı̂n evidenţă justificări teoretice ale apropie-
rii dintre anumite concepte din teoria probabilităţlor şi din statistica matematică şi de
asemenea, legăturile dintre diferitele tipuri de convergenţă ı̂n teoria probabilităţilor.
Capitolul V, intitulat ”Procese stochastice”, cuprinde paragrafele:1.Lanţuri Markov;
2.Procese Markov contiue. Procese Poisson; 3.Procese stochastice staţionare.
Pentru ı̂nţelegerea materialului din acest capitol, s-au dat numeroase exemple de
importanţă practică din teoria aşteptării, teoria stocurilor şi altele.
Capitolele I, II, IV au fost redactate de lector dr. Pletea Ariadna, iar Capitolele III şi
V de lector dr. Popa Liliana, care au colaborat pentru a obţine o formă cât mai unitară
şi modernă a cursului.
Adresăm pe această cale vii mulţumiri comisiei de analiză a cursului, formată din prof.
dr. Pavel Talpalaru, prof. dr. Stan Chiriţă şi lector Gheorghe Florea pentru observaţiile
constructive făcute, cât şi, anticipat, tuturor cititorilor, care vor contribui prin sugestii la
ı̂mbunătăţirea prezentului material.
Autoarele
Capitolul 1

Câmp de probabilitate

1.1 Câmp finit de evenimente


În teoria probabilităţilor noţiunile primare sunt: evenimentul şi probabilitatea.
Teoria probabilităţilor studiază experienţele aleatoare, acele experienţe care reproduse
de mai multe ori se desfăşoară de fiecare dată ı̂n mod diferit, rezultatul neputând fi
anticipat. Exemple de experienţe aleatoare: aruncarea unui zar, tragerile la ţintă, durata
de funcţionare a unei maşini etc.
Rezultatele posibile ale unei experienţe aleatoare se numesc probe sau cazuri posibile
ale expeienţei.
Experienţele se pot realiza printr-un număr finit sau un număr infinit de probe.
Mulţimea rezultatelor (cazurilor) posibile ale unei experienţe aleatoare formează spaţiu
de selecţie.
Notăm simbolic spaţiul de selecţie cu E.

Definiţia 1.1.1 Se numeşte eveniment o submulţime a spaţiului de selecţie.

Orice element a lui E, notat e, este un punct de selecţie sau un rezultat posibil al
experienţei.
În cele ce urmează vom presupune E finit.

Exemplul 1.1.1 Considerăm experienţa care constă ı̂n aruncarea unui zar. Aceasta este
o experienţă aleatoare. Mulţimea rezultatelor posibile ale experienţei sunt 1, 2, 3, 4,
5, 6. Deci spaţiul de selecţie este E = {1, 2, 3, 4, 5, 6}. Presupunem că ne interesează
evenimentul ca la o aruncare a zarului să obţinem o faţă cu un număr par de puncte.
Dacă aruncând zarul am obţinut faţa cu cinci puncte, aceasta este o probă a experienţei
noastre, dar evenimentul care ne interesa (o faţă cu un număr par de puncte) nu s-a
realizat. Dacă proba experienţei ar fi faţa cu şase puncte, atunci evenimentul nostru s-a
realizat.

Exemplul dat este al unei experiente cu un numar finit de probe. Se pot da exemple şi de
experienţe cu o infinitate de probe. Astfel, experienţa tragerii la ţintă. Există o infinitate
de probe care realizează evenimentul atingerii ţintei.

7
8 Câmp de probabilitate

Noţiunile de spaţiu de selecţie şi de eveniment astfel introduse ne permit ca teoria


mulţimilor să poată fi folosită ı̂n studiul evenimentelor aleatoare. Traducem ı̂n limbaj de
evenimente noţiuni şi simboluri caracteristice teoriei mulţimilor.

1. Drept submulţime a lui E se poate considera E. Cum indiferent de rezultatul e al


experienţei, e ∈ E, rezultă că odată cu e se realizează E. Evenimentul E se numeşte
eveniment cert (sau eveniment sigur).
De exemplu, la aruncarea zarului apariţia unei feţe cu un număr de puncte mai mic
sau egal cu 6 este evenimentul sigur. Apariţia unei feţe cu un număr mai mic sau
egal cu 4 de puncte este un eveniment nesigur, dar posibil.

2. Drept submulţime a lui E putem considera mulţimea vidă ∅ care nu se realizează la


nici o efectuare a experienţei, motiv pentru care se numeşte eveniment imposibil.

3. Fie evenimentul A, submulţime a lui E. Evenimentul complementar lui A ı̂n raport


cu E, notat Ā, se numeşte eveniment contrar evenimentului A. Acesta se realizează
dacă şi numai dacă nu se realizează evenimentul A.
În exemplul 1.1.1 evenimentul contrar evenimentului apariţiei unui număr par de
puncte este evenimentul care constă ı̂n apariţia unui număr impar de puncte. Astfel,
A = {2, 4, 6} şi Ā = {1, 3, 5}.

4. Fie evenimentele A, B ⊂ E. Evenimentul A implică evenimentul B (scris A ⊂ B)


dacă B se realizează prin toate probele lui A (şi prin alte probe), adică dacă (e ∈
A) ⇒ (e ∈ B).

5. Fie A, B ⊂ E două evenimente. Evenimentul A∪B este evenimentul a cărui realizare


are loc dacă se realizează sau A sau B.

6. Fie A, B ⊂ E. Prin evenimentul A ∩ B ı̂nţelegem evenimentul care se realizeză dacă


se realizează atât A cât şi B.

7. Fie A, B ⊂ E. Prin A \ B ı̂nţelegem evenimentul care se realizează prin probe ale


lui A şi B̄.

Definiţia 1.1.2 Fie A ⊂ E, A 6= ∅. Evenimentul A se numeşte eveniment elementar


dacă este implicat numai de el ı̂nsuşi şi de evenimentul imposibil. Celelalte evenimente
se numesc evenimente compuse.

Definiţia 1.1.3 Fie A, B ⊂ E. Evenimentele A, B se numesc compatibile dacă se pot


realiza simultan, adică există probe care realizează atât pe A cât şi pe B (A ∩ B 6= ∅ ). În
caz contrar evenimentele se numesc incompatibile (A ∩ B = ∅).

Observaţia 1.1.1 Operaţiile de reuniune şi intersecţie se extind pentru un număr finit
de evenimente. Fie A1 , A2 , . . . , An ⊂ E. Avem
n
[
(. . . ((A1 ∪ A2 ) ∪ A3 ) ∪ . . . ∪ An ) = Ai ,
i=1
Câmp de probabilitate 9

adică evenimentul care se realizează dacă cel puţin un eveniment Ai se realizează şi
n
\
(. . . ((A1 ∩ A2 ) ∩ A3 ) ∩ . . . ∩ An ) = Ai
i=1

este evenimentul care se realizează dacă toate evenimentele Ai , i = 1, n se realizează.

Menţionăm câteva din proprietăţile operaţiilor introduse:

1. Dacă A ⊂ B atunci A ∪ B = B şi A ∩ B = A.

2. Oricare ar fi evenimentul A au loc relaţiile

A ∪ A = A, A ∪ ∅ = A, A ∪ E = E, E ∪ ∅ = E,

A ∩ A = A, A ∩ ∅ = ∅, A ∩ E = A, E ∩ ∅ = ∅.

3. Dacă A ⊂ C, B ⊂ C, A, B, C ⊂ E atunci A ∪ B ⊂ C şi A ∩ B ⊂ C.

4. Dacă A, B, C ⊂ E atunci

A ∪ B = B ∪ A, A ∪ (B ∪ C) = (A ∪ B) ∪ C, A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),

A ∩ B = B ∩ A, A ∩ (B ∩ C) = (A ∩ B) ∩ C, A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

Construcţia sistematică a unui câmp finit de evenimente se poate face plecând de la


două axiome, numite axiomele câmpului finit de evenimente.
Notăm cu P(E) mulţimea părţilor lui E.

Definiţia 1.1.4 Perechea { E, K }, K 6= ∅, K ⊂ P(E), se numeşte câmp finit de


evenimente dacă:

a) ∀A ∈ K ⇒ Ā ∈ K;

b) ∀A, B ∈ K ⇒ A ∪ B ∈ K.

Consecinţe ale definiţiei:

1. E ∈ K deoarece (∀A ∈ K ⇒ Ā ∈ K) ⇒ (A ∪ Ā ∈ K) ⇒ (E ∈ K).

2. ∅ ∈ K deoarece (E ∈ K ⇒ Ē ∈ K) ⇒ (∅ = Ē ∈ K).

3. Dacă A, B ∈ K ⇒ A \ B ∈ K deoarece A \ B = A ∩ B̄ = Ā ∪ B ∈ K.

4. Următorele proprietăţi sunt echivalente:

(∀A, B ∈ K ⇒ A ∪ B ∈ K) şi (∀A, B ∈ K ⇒ A ∩ B ∈ K),

deoarece A ∩ B = Ā ∪ B̄.
10 Câmp de probabilitate

5. Din Definiţia 1.1.4 rezultă, folosind metoda inducţiei matematice, că


n
[
∀n > 2, Aj ∈ K, 1 6 j 6 n ⇒ Aj ∈ K.
j=1

6. Din Consecinţa 4 rezultă:


n
\
∀n > 2, Aj ∈ K, 1 6 j 6 n ⇒ Aj ∈ K.
j=1

Într-un câmp finit de evenimente au loc următoarele proprietăţi:


P1. Două evenimente elementare distincte sunt incompatibile.
Fie A1 şi A2 două evenimente elementare. Să presupunem că A1 ∩ A2 6= ∅, adică
A1 ∩ A2 = B 6= ∅. Deci B ⊂ A1 , B 6= ∅ şi cum A1 şi A2 sunt distincte, B 6= A1 , deci
A1 nu este eveniment elementar, ceea ce este fals.
P2. Într-un câmp finit de evenimente există evenimente elementare.
Fie A1 un eveniment. Dacă A1 este elementar, afirmaţia este demonstrată. Dacă
A1 este eveniment compus există A2 6= ∅, A2 6= A1 astfel ı̂ncât A2 ⊂ A1 . Dacă
A2 este eveniment elementar, afirmaţia este demonstrată. Dacă A2 este eveniment
compus se continuă raţionamentul anterior. Câmpul fiind finit, rezultă că există un
eveniment elementar An 6= ∅ astfel ı̂ncât
An ⊂ An−1 ⊂ . . . ⊂ A1 .

P3. Fie { E, K } un câmp finit de evenimente. Orice eveniment al acestui câmp se poate
scrie ca reuniune finită de evenimente elementare.
Fie B un eveniment compus (dacă B este un eveniment elementar atunci afirmaţia
este demonstrată). Există, conform proprietăţii P2, un eveniment elementar A1 ∈ K
şi un eveniment B1 ∈ K astfel ı̂ncâ B = A1 ∪ B1 , B1 = B \ A1 cu A1 ∩ B1 = ∅.
Dacă B1 este eveniment elementar, afirmaţia este demonstrată. Dacă B1 nu este
eveniment elementar, există evenimentul elementar A2 şi un eveniment B2 ∈ K
astfel ı̂ncât B1 = A2 ∪ B2 şi deci B = A1 ∪ A2 ∪ B2 şi raţionamentul se continuă.
Deci
B = A1 ∪ A2 ∪ . . . Ak ,
unde Ai , i = 1, k sunt evenimente elementare.
P4. Reuniunea tuturor evenimentelor elementare ale lui K este E.
Într-adevăr, fie
E = A1 ∪ A2 ∪ . . . ∪ As .
Presupunem că ı̂n câmpul finit de evenimente mai există un eveniment elementar
An 6= Aj , j = 1, s. Atunci
An ∩ E = An = An ∩ (A1 ∪ . . . ∪ As ) = (An ∩ A1 ) ∪ . . . ∪ (An ∩ As ) = ∅
conform P1.
Câmp de probabilitate 11

Nu de puţine ori de un real folos ne va fi descompunerea unui eveniment ı̂ntr-o reuniune


de evenimente incompatibile două câte două.
Definiţia 1.1.5 Fie { E, K } un câmp finit de evenimente şi A1 , A2 , . . . , An ∈ K.
Spunem că familia de evenimente A1 , A2 . . . An formează un sistem complet de eveni-
mente dacă:
a) ∀Ai 6= ∅, i = 1, n;

b) Ai ∩ Aj = ∅, ∀i 6= j, i, j = 1, n;
n
[
c) Ai = E.
i=1

Observaţia 1.1.2 Mulţimea tuturor evenimentelor elementare ataşate unei experienţe


formează un sistem complet de evenimente.

Exemplul 1.1.2 Să se verifice care din următoarele submulţimi ale lui P(E) (P(E)
mulţimea părţilor lui E) sunt câmpuri finite de evenimente şi, ı̂n caz afirmativ, să se
precizeze evenimentele elementare:
1. Dacă E = {1, 2, 3} şi K = {∅, {1}, {2, 3}, {1, 2, 3}}, atunci { E, K } este câmp
finit de evenimente deoarece satisface cele două axiome ale Definiţiei 1.1.4. Eveni-
mentele elementare sunt {1} şi {2,3}. Observăm că evenimentele elementare nu sunt
submulţimi ale lui E formate dintr-un singur element nu este corectă. În exemplul
prezentat un eveniment elementar este format dintr-un singur element, iar celălalt
eveniment este format din două elemente.

2. Dacă E = {1, 2, 3} şi K = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} = P(E)
atunci { E, K } este un câmp finit de evenimente. Evenimentele elementare sunt
{1}, {2}, {3}.

3. Dacă E = {1, 2, 3} şi K = {{1}, {2}, {1, 3}, {1, 2, 3}} nu este un câmp finit de
evenimente deoarece, de exemplu {2} = {1, 3} ∈ / K sau {1} ∪ {2} = {1, 2} ∈/ K.

1.2 Câmp finit de probabilitate


Fie o experienţă şi un eveniment A legat de aceasta. Repetăm experienţa de n ori
ı̂n condiţii identice. Notăm cu m numărul de realizări ale evenimentului A. Rezultă că
n − m reprezintă numărul de nerealizări ale lui A.
Definiţia 1.2.1 Numărul
m
fn =
n
se numeşte frecvenţa relativă a evenimentului A.

Observaţia 1.2.1 Frecvenţa relativă variază de la o experientă la alta, având un caracter


experimental. Deoarece 0 6 m 6 n rezultă 0 6 fn 6 1, n ∈ IN .
12 Câmp de probabilitate

Observaţia 1.2.2 Frecvenţa relativă fn depinde de n, numărul de repetări ale experi-


mentului. Multe experienţe prezintă o stabilitate a frecvenţelor relative ı̂n sensul că pe
măsură ce numărul n ia valori mari, frecvenţa relativă oscilează ı̂n jurul unei anumite
valori şi se apropie din ce ı̂n ce mai mult de această valoare. Valoarea poate fi adesea
intuită.
De exemplu, dacă ı̂ntr-o urnă sunt trei bile negre şi una albă, la un număr mare de
extracţii ale unei bile din urnă, cu repunerea bilei extrase ı̂napoi, şansele de extragere
ale unei bile negre sunt de trei ori mai mari decât cele ale unei bile albe şi deci, pentru
valori mari ale lui n, ı̂n cazul celor două evenimente frecvenţele relative se vor stabiliza
ı̂n jurul valorilor 3/4 şi respectiv 1/4. Această stabilitate a frecvenţelor relative, verifi-
cată prin observaţii şi confirmată ı̂n practică, este una din legile cele mai importante ale
experienţelor aleatoare. Legea a fost formulată pentru prima dată de Bernoulli ı̂n teorema
care ı̂i poartă numele şi este forma slabă a legii numerelor mari (Capitolul 4, Teorema
4.2.2).

Definirea probabilităţii peste un câmp finit de evenimente se poate face ı̂n mod clasic
şi axiomatic.
Definiţia clasică a probabilităţii se poate folosi ı̂n cazul ı̂n care experienţa aleatoare
are un număr finit de cazuri posibile şi toate egal probabile, adică la un număr mare de
efectuări ale experienţei, fiecare caz are aceeaşi şansă de a se realiza.
Considerăm, de exemplu, experienţa care constă ı̂n aruncarea unui zar pe o suprafaţă
netedă. Dacă zarul este perfect cubic şi omogen, atunci fiecare din feţe are aceeaşi şansă
de a apare, frecvenţele relative ale fiecăreia dintre ele variază ı̂n jurul lui 1/6. În cazul ı̂n
care zarul nu ar fi omogen, atunci una sau mai multe feţe ar fi favorizate.
Definiţia 1.2.2 Fie o experienţă şi evenimentele legate de aceasta astfel ı̂ncât toate eveni-
mentele să fie egal posibile. Fie evenimentul A legat de această experienţă. Numim pro-
babilitatea evenimentului A numărul
m
P (A) =
n
dat de raportul dintre numărul m al cazurilor favorabile realizării evenimentului A şi
numărul n al cazurilor egal posibile.
Menţionăm că orice probă care conduce la realizarea unui eveniment A reprezintă ”un
caz favorabil evenimentului A”.
Observaţia 1.2.3 Definiţia clasică a probabilităţii, formulată pentru prima dată de La-
place, este nesatisfăcătoare din punct de vedere logic deoarece reduce definiţia probabi-
lităţii la problema cazurilor egal posibile care nu a putut fi definită din punct de vedere
matematic, ci numai ilustrată.
În cazul zarului neomogen, definiţia clasică a probabilităţii nu poate fi aplicată. Ri-
guros vorbind, zarul neomogen şi nesimetric este singurul caz real deoarece construirea
unui zar perfect este imposibilă.
Un alt incovenient al definiţiei apare ı̂n cazul ı̂n care numărul cazurilor posibile este
infinit deoarece ı̂n această situaţie probabilitatea, calculată după definiţia clasică, este
foarte mică sau egală cu zero.
Câmp de probabilitate 13

În sfârşit, definiţia clasică a probabilităţii nu poate fi admisă deoarece nu pote fi apli-
cată ı̂n studiul fenomenelor sociale, neputându-se determina numărul cazurilor posibile.

Observaţia 1.2.4 Legătura existentă ı̂ntre frecvenţa relativă unui eveniment şi proba-
bilitatea sa este profundă. De fapt atunci când calculăm probabilitatea unui eveniment
ne bazăm pe frecvenţele relative.

Exemplul 1.2.1 Se aruncă un zar de două ori. Mulţimea rezultatelor posibile ale expe-
rienţei care constă ı̂n perechile de numere ce apar pe zar ı̂n cele două aruncări este E =
{11, 12, . . . , 16, 21, 22, . . . , 26, 31, . . . , 66} , |E| = 62 = 36, unde |E| notează numărul de
elemente ale mulţimii E. Toate rezultatele posibile sunt echiprobabile, deci probabilitatea
unui eveniment A, P (A), este egală cu numărul elementelor din mulţimea A ı̂mpărţit la
numărul elementelor din E. Presupunem că vom păstra faţa zarului ce conţine un punct
albă, iar celelalte feţe le vom colora ı̂n negru. Notăm cu AN evenimentul ca la prima
aruncare a zarului să obţinem faţa albă, iar la cea de-a doua aruncare o faţă neagră a
zarului. Avem AN = {12, 13, 14, 15, 16}. Rezultă
5
P (AN ) = .
36
Analog, făcând notaţiile ı̂n acelaşi fel, avem:
1 5 25
P (AA) = , P (N A) = , P (N N ) = .
36 36 36
Presupunem că au fost şterse numerele de pe feţele zarului şi au rămas culorile. Mulţi-
mea rezultatelor posibile, ı̂n acest caz, este E = {AA, AN, N A, N N } cu probabilităţile
corespunzătoare. Observăm că ı̂n acest ultim caz, evenimentele AA, AN, N A, N N sunt
elementare şi formează un sistem complet de evenimente.

Proprietăţi ale probabilităţii:


P1. ∀A ∈ K : 0 6 P (A) 6 1;

P2. P (E) = 1;

P3. P (∅) = 0;

P4. ∀A, B ∈ K, A ∩ B = ∅ : P (A ∪ B) = P (A) + P (B);

P5. ∀A, B ∈ K, B ⊂ A : P (A \ B) = P (A) − P (B);

P6. ∀A ∈ K : P (A) + P (Ā) = 1;

P7. ∀A, B ∈ K, B ⊂ A : P (B) 6 P (A).


Primele trei proprietăţi sunt evidente.
Demonstrăm proprietatea P4. Dacă din cele n cazuri posibile, m sunt favorabile lui
A şi p favorabile lui B, atunci
m p
P (A) = , P (B) = .
n n
14 Câmp de probabilitate

Dacă A ∩ B = ∅, atunci numărul cazurilor favorabile lui A ∪ B este m + p, deci rezultă


proprietatea P4.
Această proprietate poate fi extinsă ı̂n sensul că dacă A1 , A2 , . . . , An ∈ K, evenimente
incompatibile două câte două, adică Ai ∩ Aj = ∅, ∀i 6= j, atunci
n
[ n
X
P( Ai ) = P (Ai ).
i=1 i=1

Demonstraţia rezultă utilizând metoda inducţiei matematice.


Demonstrăm proprietatea P5. Scriem A = (A \ B) ∪ B şi atunci (A \ B) ∩ B = ∅,
deci, conform proprietăţii P4,

P (A) = P ((A \ B) ∪ B) = P (A \ B) + P (B) ⇒ P (A \ B) = P (A) − P (B).

Mai general, avem:

∀A, B ∈ K : P (A \ B) = P (A) − P (A ∩ B). (1.1)

Într-adevăr, scriem A = (A \ B) ∪ (A ∩ B). Deoarece (A \ B) ∩ (A ∩ B) = ∅ avem, conform


proprietăţii P4, P (A) = P (A \ B) + P (A ∩ B). Rezultă formula (1.1).
Proprietatea P6 se obţine din P4 punând B = Ā, folosind P2.
Pentru a demonstra proprietatea P7 folosim P5. Dacă B ⊂ A atunci P (A \ B) =
P (A) − P (B) > 0 şi deoarece, conform P1, P (A \ B) > 0 rezultă proprietatea dorită.

Definiţia 1.2.3 Un sistem finit de evenimente { E, K } asociat unei experienţe aleatoa-


re cu un număr finit de cazuri egal posibile ı̂mpreună cu probabilităţile acestor evenimente
formează un câmp finit de probabilitate notat { E, K, P }.

Odată introdusă noţiunea de probabilitate, putem defini două noţiuni importante ı̂n
teoria probabilităţilor şi anume noţiunea de probabilitate condiţionată şi de independenţă
ı̂n probabilitate a evenimentelor.
Uneori trebuie să calculăm probabilitatea unui eveniment A legat de un eveniment
B, ı̂n ipoteza că evenimentul B s-a realizat. Pentru aceasta restrângem mulţimea eveni-
mentelor care realizează evenimentul A la cele care realizează şi evenimentul B, deci
restrângem E la B. Pentru ca această restricţie să aibă sens este necesar ca evenimentul
B să fie de probabilitate nenulă.
Fie { E, K, P } un câmp finit de probabilitate şi A, B ∈ K, P (B) 6= 0.

Definiţia 1.2.4 Numim probabilitatea evenimentului A condiţionată de evenimentul B


(notat PB (A) sau P (A|B)) probabilitatea de realizare a evenimentului A ı̂n ipoteza că
evenimentul B s-a realizat, probabilitate definită prin

P (A ∩ B)
P (A|B) = . (1.2)
P (B)

Observaţia 1.2.5 Fie m numărul cazurilor favorabile lui B, p numărul cazurilor favora-
bile lui A şi q favorabile lui A ∩ B. Din cele m cazuri favorabile lui B, q sunt favorabile
Câmp de probabilitate 15

şi lui A sau, ceea ce este acelasi lucru, din cele p cazuri favorabile lui A, q sunt favorabile
şi lui B. Avem
m p q
P (B) = , P (A) = , P (A ∩ B) = .
n n n
În ipoteza că B s-a realizat, rămân m cazuri posibile, din care q favorabile lui A. Deci
q
q n = P (A ∩ B) .
P (A|B) = = m
m P (B)
n
Aceasta ar putea constitui o ”justificare” a relaţiei (1.2).

Observaţia 1.2.6 Dacă presupunem că P (A) 6= 0, atunci

P (A ∩ B)
P (B|A) = . (1.3)
P (A)

Observaţia 1.2.7 Din relaţiile (1.2) şi (1.3) reţinem

P (A ∩ B) = P (B)P (A|B)

şi
P (A ∩ B) = P (A)P (B|A).

Fie { E, K, P } un câmp finit de probabilitate şi A, B ∈ K.

Definiţia 1.2.5 Evenimentele A şi B sunt independente (ı̂n probabilitate) dacă proba-
bilitatea ca unul să se realizeze nu depinde de faptul că celălalt s-a realizat sau nu, altfel
spus
P (A ∩ B) = P (A)P (B). (1.4)

Teorema 1.2.1 Evenimentele A şi B cu P (A)P (B) 6= 0 sunt independente dacă şi numai
dacă are loc una din relaţiile:

a) P (B|A) = P (B);

b) P (A|B) = P (A);

c) P (B|Ā) = P (B);

d) P (A|B̄) = P (A).

Demonstraţie. Arătăm că cele patru relaţii sunt echivalente cu relaţia (1.4) din definiţie. În
acest fel se justifica şi sensul Definiţiei 1.2.5. Presupunem că are loc a). Atunci, deoarece

P (A ∩ B)
P (B|A) =
P (A)

rezultă P (A ∩ B) = P (A)P (B), adică (1.4).


16 Câmp de probabilitate

Reciproc, dacă P (A ∩ B) = P (A)P (B) şi deoarece


P (A ∩ B) P (A)P (B)
P (B|A) = = = P (B)
P (A) P (A)
rezultă a). Cum relaţia (1.4) este simetrică ı̂n A şi B, rezultă că (1.4) este echivalentă cu
b).
Demonstrăm că
P (Ā ∩ B) = P (Ā)P (B) (1.5)
este echivalentă cu (1.4). Într-adevăr, dacă P (Ā ∩ B) = P (Ā)P (B) atunci deoarece
Ā ∩ B = B \ A avem P (B \ A) = P (Ā)P (B) sau

P (B) − P (A ∩ B) = (1 − P (A))P (B)

echivalent cu
P (B) − P (A ∩ B) = P (B) − P (A)P (B),
deci (1.4). Invers, presupunem (1.4) şi luăm ı̂n locul lui A pe Ā. Vom avea P (Ā ∩ B) =
P (Ā)P (B), adică (1.5). Deci c) este echivalent cu (1.5) care este echivalent cu (1.4),
rezultă că c) este echivalent cu (1.4). Echivalenţa lui d) cu (1.4) rezultă ı̂n mod analog.

Definiţia 1.2.6 Date evenimentele A1 , A2 , . . . , An , vom spune că sunt independente dacă
probabilitatea oricărei intersecţii finite de evenimente este egală cu produsul probabilităţi-
lor evenimentelor intersectate, adică dacă

P (Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P (Ai1 )P (Ai2 ) . . . P (Aik )

oricare ar fi 1 6 i1 6 i2 6 . . . 6 ik 6 n.

Observaţia 1.2.8 Din definiţie rezultă că dacă trei evenimente sunt independete două
câte două nu rezultă că sunt independente ı̂n totalitatea lor. Exemplul lui S.N.Bernstein
ne va ilustra acest lucru. Considerăm un tetraedru omogen cu feţele colorate astfel: una
ı̂n alb, una ı̂n negru, una ı̂n roşu şi a patra ı̂n toate cele trei culori. Aruncând tetraedrul
pe o masă el se asează pe una din feţe; ne interesează probabilitatea apariţei fiecărei culori
şi independenţa evenimentelor corespunzătoare. Notăm cu A1 evenimentul care constă ı̂n
apariţia culorii albe, A2 evenimentul care constă ı̂n apariţia culorii negre şi A3 evenimentul
care constă ı̂n apariţia culorii roşii. Avem:
1
P (A1 ) = P (A2 ) = P (A3 ) =
2
deoarece pentru fiecare culoare sunt patru cazuri posibile şi două favorabile (faţa cu
culorea respectivă şi faţa cu cele trei culori). Se constată că
1
P (A1 ∩ A2 ) = P (A1 ∩ A3 ) = P (A2 ∩ A3 ) = ,
4
dar
1 1
P (A1 ∩ A2 ∩ A3 ) = 6= P (A1 )P (A2 )P (A3 ) = .
4 8
Câmp de probabilitate 17

1.3 Metode de numărare


Calculul probabilităţilor conduce adesea la numărarea diferitelor cazuri posibile. Capi-
tolul din algebră referitor la permutări, aranjamente şi combinări este foarte util ı̂n această
situaţie.
Principiul multiplicării. Presupunem că avem două situaţii A şi B, situaţia A
se poate realiza ı̂n m moduri, iar situaţia B ı̂n k moduri. Numărul de moduri ı̂n are se
poate realiza A şi B este m × k.
Mai general, presupunem că avem r > 2 situaţii. În prima situaţie putem face m1
alegeri, ı̂n a doua m2 ,. . ., ı̂n a r-a situaţie mr alegeri, deci ı̂n total m1 × m2 × . . . × mr .
Exemplul 1.3.1 Care este numărul situaţiilor care apar aruncând două zaruri? Pentru
primul zar sunt 6 situaţii, pentru al doilea 6 situaţii, ı̂n total 6 × 6 situaţii.
În continuare vom face distincţie ı̂ntre o mulţime cu o ordine determinată de dispunere
a elementelor sale, numită mulţime ordonată şi o mulţime ı̂n care nu ne interesează ordinea
elementelor.
Permutări: Fie o mulţime A cu n elemente. Elementele acestei mulţimi se pot or-
dona ı̂n mai multe moduri. Fiecare mulţime ordonată care se formează cu cele n elemente
ale mulţimii A se numeşte permutare a elementelor acelei mulţimi. Numărul permutărilor
cu n elemente este n! = 1 × 2 × . . . × n.
Aranjamente: Fie o mulţime A cu n elemente. Submulţimile ordonate ale lui A,
având fiecare câte k elemente, 0 6 k 6 n, se numesc aranjamente de n luate câte k.
Numărul aranjamentelor de n luate câte k se notează
Akn = n(n − 1) . . . (n − k + 1).
Exemplul 1.3.2 În câte moduri este posibil să facem un steag tricolor dacă avem la
dispoziţe pânză de steag de cinci culori diferite ?
Două steaguri tricolore care au aceleaşi culori se deosebesc dacă ordinea culorilor este
diferită. Deci ne interesează câte submulţmi de câte trei elemente se pot forma cu ele-
mentele unei mulţimi de cinci elemente, ı̂n submulţmi interesându-ne ordinea elementelor.
Deci sunt A35 = 5 × 4 × 3 = 60.
Combinări: Fie o mulţime A cu n elemente. Submulţimile lui A având fiecare câte k
elemente, 0 6 k 6 n, ı̂n care nu ne interesează ordinea elementelor, se numesc combinări
de n luate câte k. Numărul combinărilor de n luate câte k se notează
Akn
Cnk = .
k!
Exemplul 1.3.3 Pentru un joc, cinci fete şi trei băieţi trebuie să formeze două echipe
de câte patru persoane. În câte moduri se pot forma echipele ?
În total sunt 8 copii cu ajutorul cărora trebuie făcute două grupe a câte patru copii.
Studiem ı̂n câte moduri se poate forma o grupă de 4, cealaltă formându-se din copiii
rămaşi. Nu interesează numărul de fete sau de băieţi din grupă şi nici ordinea lor, ci
numai numărul de grupe care se pot forma. Acest număr este
C54 + C53 × C31 + C52 × C32 + C51 × C33 = C84 = 70.
18 Câmp de probabilitate

1.4 Moduri de selectare a elementelor


Presupunem că o urnă conţine m bile, marcate de la 1 la m, din care se extrag n bile
ı̂n anumite condiţii. Vom număra, ı̂n fiecare situaţie, numărul cazurilor posibile. Evident
n 6 m.

1. Selectare cu ı̂ntoarcerea bilei extrase ı̂n urnă şi ordonare.


Extragem n bile pe rând, fiecare bilă fiind pusă ı̂napoi ı̂n urnă ı̂nainte de următorea
extragere, ı̂nsemnând numărul bilelor ı̂n ordinea ı̂n care apar (interesează ordinea
bilelor ı̂n n-uplul extras). Conform principiului multiplicării, ı̂n care m1 = m2 =
. . . = mn = m, numărul n-uplurilor este mn .

2. Selectare fără ı̂ntoarcerea bilei ı̂n urnă şi cu ordonare.


Procedăm ca şi ı̂n cazul ı̂ntâi, dar după fiecare extragere bila obţinută este pusă la o
parte, această operaţie fiind echivalentă cu extragerea simultană din urnă a n bile.
Obţinem n-upluri (a1 , a2 , . . . , an ). Regula de multiplicare se aplică astfel: pentru a1
avem m posibilităţi, pentru a2 avem m − 1 posibilităţi,. . .,pentru an avem m − n + 1
posibilităţi, ı̂n total

m × (m − 1) × . . . × (m − n + 1) = Anm .

Caz particular: dacă m = n, atunci numărul cazurilor posibile este n!.

3. Selectare cu ı̂ntoarcerea bilei ı̂n urnă şi fără ordonare.


Extragem n bile, una după alta, fiecare fiind repusă ı̂n urnă ı̂nainte de a realiza
următoarea extragere. Nu ţinem seama de ordinea bilelor ı̂n mulţimea formată. Pot
n
exista şi repetiţii. Numărul cazurilor posibile este Cn+m−1 , deoarece ar fi ca şi cum
am extrage simultan dintr-o urnă care conţine n + m − 1 bile (numerotate de la 1
la m, unele din ele putându-se repeta) n bile, fără să ne intereseze ordinea. După
ultima extragere secvenţială ı̂n urnă vor rămâne m − 1 bile.

4. Selectare fără ı̂ntorcerea bilei şi fără ordonare.


Bilele sunt extrase una după alta, fără a pune bila extrasă ı̂napoi; este acelaşi lucru
cu a spune că extragem n bile dintr-o dată şi formăm submulţimi de n elemente, ı̂n
n
total Cm .
Caz particular: determinarea numărului de permutări a m elemente care se disting
prin grupuri de culori, adică avem m1 elemente de culoarea c1 , m2 elemente de
culoarea c2 ,. . . , mr elemente de culoarea cr . Culorile sunt distincte, dar bilele de
aceeaşi culoare nu se disting ı̂ntre ele.

m1 + m2 + . . . + mr = m.

m1
Numărul cazurilor posibile : Cm moduri de alegere a poziţiilor bilelor de culoare c1 ,
m2 mr
Cm−m1 moduri de alegere a poziţiilor bilelor de culoare c2 ,. . . , Cm−m1 −...−mr−1
moduri
Câmp de probabilitate 19

de alegere a poziţiilor bilelor de culoarea cm (de fapt m−m1 −m2 −. . .−mr−1 = mr şi
avem, de fapt, o singură posibilitate), ı̂n total, ţinând seama de regula multiplicării,
m1 m2 mr
Cm Cm−m1 . . . Cm−m1 −...−mr−1
=

m! (m − m1 )! (m − m1 − . . . − mr )!
= · ... =
m1 ! (m − m1 )! m2 ! (m − m1 − m2 )! (m − m1 − . . . mr )! mr−1 !

m!
= .
m1 ! m2 ! . . . mr !

1.5 Definiţia axiomatică a probabilităţii


Noţiunile de probabilitate şi de câmp finit de probabilitate se pot prezenta şi sub formă
axiomatică.
Definiţia 1.5.1 Se numeşte probabilitate (măsură de probabilitate) o funcţie definită pe
un câmp finit de evenimente { E, K } cu valori reale care satisface următoarele axiome:
a) P (A) > 0, ∀A ∈ K;
b) P (E) = 1;
c) P (A ∪ B) = P (A) + P (B) ∀A, B ∈ K, A ∩ B = ∅.

Observaţia 1.5.1 Axioma c) din definiţie se extinde prin recurenţă la orice număr finit
de evenimente incompatibile două câte două, deci dacă Ai ∩ Aj = ∅, i 6= j, i, j = 1, n,
atunci n n
[ X
P ( Ai ) = P (Ai ).
i=1 i=1

Definiţia clasică a probabilităţii satisface toate axiomele definiţiei date şi, de asemenea,
oricare din proprietăţile prezentate anterior pentru probabilitate poate fi obţinută din
definiţia axiomatică. Într-adevăr,
P1. P (∅) = 0.
Deoarece E ∪ ∅ = E şi E ∩ ∅ = ∅ rezultă că P (E ∪ ∅) = P (E) + P (∅), adică
P (∅) = 0.
P2. P (A \ B) = P (A) − P (A ∩ B).
Deoarece (A\B)∪(A∩B) = A şi (A\B)∩(A∩B) = ∅ rezultă P (A\B)+P (A∩B) =
P (A).
P3. Pentru orice A, B ∈ K, A ⊂ B are loc relaţia P (A) 6 P (B).
Într-adevăr, ţinând seama de P2 şi de faptul că A ⊂ B avem
0 6 P (B \ A) = P (B) − P (B ∩ A) = P (B) − P (A).
Deci P (B) − P (A) > 0 sau P (B) > P (A).
20 Câmp de probabilitate

P4. Pentru orice A ∈ K are loc inegalitatea 0 6 P (A) 6 1.


Într-adevăr,∅ ⊂ A ⊂ E şi, folosind P3, avem P (∅) 6 P (A) 6 P (E) sau 0 6 P (A) 6 1.

Definiţia 1.5.2 Se numeşte câmp finit de probabilitate un câmp finit de evenimente


{E, K} pe care am definit o probabilitate P . Se notează {E, K, P }.

Observaţia 1.5.2 Definiţiile probabilităţilor condiţionate şi a independenţei evenimen-


telor rămân aceleaşi şi atunci când construirea teoriei pobabilităţilor se realizează folosind
metoda axiomatică.

Observaţia 1.5.3 Dacă E este reuniune finită de evenimente elementare, fie


E = {A1 , A2 , . . . , An }, atunci orice eveniment A ∈ K, A 6= ∅ pote fi scris ca o reuniune
finită de evenimente elementare, conform P3 din Capitolul 1.1, adică

A = Ai1 ∪ Ai2 ∪ . . . ∪ Aik ,

unde Aij este un eveniment elementar, j = 1, k. Atunci conform Observaţiei 1.5.1


obţinem
P (A) = P (Ai1 ) + . . . + P (Aik ).
Deci pentru a cunoaşte probabilitatea unui eveniment oarecare din K este suficient să
cunoaştem probabilitatea tuturor evenimentelor elementare care-l compun.
Probabilitatea unui astfel de eveniment A este suma probabilităţilor evenimentelor ele-
mentare ce-l compun. Evident, probabilităţile evenimentelor elementare satisfac condiţiile

P (Ai ) > 0, i = 1, n, (1.6)

P (A1 ) + P (A2 ) + . . . + P (An ) = P (E) = 1. (1.7)


Deci, fiind date toate evenimentele elementare care compun E, familia K este perfect
determinată şi deci câmpul de probabilitate mai depinde de alegerea a n numere (proba-
bilităţile evenimentelor elementare) care satisfac condiţiile (1.6) şi (1.7). În cazul parti-
cular când evenimentele elementare sunt echiprobabile
1
P (A1 ) = P (A2 ) = . . . = P (An ) = ,
n
k
şi dacă A = Ai1 ∪ Ai2 ∪ . . . ∪ Ain , obţinem P (A) = , deci ajungem astfel la definiţia
n
clasică a probabilităţii.

Observaţia 1.5.4 În definiţia axiomatică a probabilităţii condiţia pusă cazurilor posi-
bile de a fi egal probabile este superfluă. Un exemplu celebru, dat de D’Alembert, ilus-
trează aceasta. Se aruncă două monede simultan. Există trei cazuri posibile care nu sunt
echiprobabile: A evenimentul ca pe ambele monede să apară banul, B evenimentul ca pe
ambele monede să nu apară banul, C evenimentul ca pe una din monede să apară banul,
iar pe cealaltă nu. Probabilităţile evenimentelor A, B, C nu sunt 1/3.
1 1 1
P (A) = , P (B) = , P (C) = ,
4 4 2
Câmp de probabilitate 21

deoarece evenimentul C este compus din două situaţii: pe una din monede să apară banul
iar pe cealată nu, şi invers. Cele două cazuri care compun evenimentul C ar fi evidente
dacă monedele nu s-ar arunca simultan, ci una după alta. Cele două monede pot fi
nedistinse din punct de vedere fizic şi deci cele trei cazuri prezentate de D’Alembert sunt
de fapt cele trei cazuri care se pot distinge.

1.6 Formule probabilistice


Probabilitatea unei reuniuni de evenimente. Dacă {E, K, P } un câmp finit de
probabilitate atunci oricare ar fi A, B ∈ K are loc relaţia

P (A ∪ B) = P (A) + P (B) − P (A ∩ B). (1.8)

Facem observaţia că vom demonstra formulele folosind definiţia axiomatică a probabili-
tăţii. Deoarece A ∪ B = A ∪ (B \ A) şi A ∩ (B \ A) = ∅, avem

P (A ∪ B) = P (A ∪ (B \ A)) = P (A) + P (B \ A)

dar, conform proprietăţii P2 din Capitolul 1.5,

P (B \ A) = P (B) − P (B ∩ A)

şi deci rezultă (1.8).


Relaţia se poate extinde şi ı̂n cazul a n evenimente
n
[ n
X n
X n
\
n−1
P( Ai ) = P (Ai ) − P (Ai ∩ Aj ) + . . . + (−1) P( Ai ). (1.9)
i=1 i=1 i,j=1,i<j i=1

Demonstraţia se face prin inducţie matematică după n. Pentru n = 2 relaţia este


demonstrată. Presupunem formula adevărată pentru n şi o demonstrăm pentru n + 1.
n+1
[ n
[ n
[ n
[
P( Ai ) = P (( Ai ) ∪ An+1 ) = P ( Ai ) + P (An+1 ) − P (( Ai ) ∩ An+1 ) =
i=1 i=1 i=1 i=1

n
X n
X n
\ n
X \
= P (Ai ) − P (Ai ∩ Aj ) + . . . +(−1)n−1 P ( Ai ) − P (Ai An+1 )+
i=1 i,j=1,i<j i=1 i=1

n+1
X n+1
\ n+1
X
+ P (Ai ∩ Aj ∩ An+1 ) + . . . +(−1)n P ( Ai ) = P (Ai )−
i,j=1, i<j i=1 i=1

n+1
X X n+1
\
P (Ai ∩ Aj ) + . . . + P (Ai ∩ Aj ∩ Ak ) + . . . + (−1)n+1 P ( Ai ).
i,j=1,i<j 6 6
1 i<j<k n+1 i=1
22 Câmp de probabilitate

Probabilitatea unei intersecţii. Fie {E, K, P } un câmp finit de evenimente. Ori-


care ar fi A, B ∈ K are loc relaţia

P (A ∩ B)
P (A|B) = .
P (B)

Relaţia de mai sus rezultă din (1.2). Ea poate fi folosită pentru a calcula probabilitatea
unei intersecţii:
P (A ∩ B) = P (B)P (A|B).
Când folosim această formulă la rezolvarea unei probleme trebuie să considerăm eveni-
mentele A şi B ı̂ntr-o ordine convenabil aleasă, dat fiind că se poate utiliza, datorită
echivalenţei demonstrate, relaţia

P (A ∩ B) = P (A)P (B|A).
k
\
Formula se poate extinde şi ı̂n cazul a n evenimente A1 , A2 , . . ., An , cu P ( Ai ) 6= 0,
i=1
k = 2, n − 1, sub forma
n
\
P( Ai ) = P (A1 )P (A2 |A1 )P (A3 |(A1 ∩ A2 )) . . . P (An |(A1 ∩ A2 ∩ . . . ∩ An−1 )). (1.10)
i=1

Într-adevăr, folosind definiţia probabilităţii condiţionate, obţinem

P (A1 ) = P (A1 ),

P (A2 ∩ A1 )
P (A2 |A1 ) = ,
P (A1 )
P (A1 ∩ A2 ∩ A3 )
P (A3 |(A1 ∩ A2 )) = ,
P (A1 ∩ A2 )
...
P (A1 ∩ A2 ∩ . . . ∩ An )
P (An |(A1 ∩ A2 ∩ . . . ∩ An−1 )) = .
P (A1 ∩ A2 ∩ . . . ∩ An−1 )

Înmulţind relaţiile membru cu membru şi făcând simplificările corespunzătoare, obţinem


(1.10).

Observaţia 1.6.1 Dacă evenimentele A şi B nu sunt independente, atunci din

P (A ∪ B) = P (A) + P (B) − P (A ∩ B),

0 6 P (A ∪ B) 6 1,
rezultă
P (A ∩ B) > P (A) + P (B) − 1
Câmp de probabilitate 23

sau, notând p1 = P (A), p2 = P (B), p12 = P (A ∩ B) atunci p12 > p1 + p2 − 1. Această


inegalitate poartă numele de inegalitatea lui Boole şi dă o margine inferioară pentru
probabilitatea intersecţiei a două evenimente. Se poate demonstra, mai general,

p12...n > p1 + p2 + . . . + pn − (n − 1),


n
\
unde pi = P (Ai ), i = 1, n, p12...n = P ( Ai ).
i=1

Formula probabilităţii totale. Fie {E, K, P } un câmp finit de evenimente,


{A1 , A2 , . . . , An }, Ai ∈ K, i = 1, n, un sistem complet de evenimente şi B un eveniment
oarecare, B ∈ K. Atunci
Xn
P (B) = P (Ai )P (B|Ai ). (1.11)
i=1
n
[
Într-adevăr, deoarece E = Ai putem scrie
i=1

n
[ n
[
B =B∩E =B∩( Ai ) = (B ∩ Ai )
i=1 i=1

şi cum pentru i 6= j, Ai ∩ Aj = ∅ atunci avem


n
X n
X
P (B) = P (B ∩ Ai ) = P (Ai )P (B|Ai ).
i=1 i=1

Formula lui Bayes. Fie {E, K, P } un câmp finit de evenimente şi {A1 , A2 , . . . , An },
Ai ∈ K, i = 1, n un sistem complet de evenimente şi B un eveniment oarecare. Atunci
P (B|Ai )P (Ai )
P (Ai |B) = n . (1.12)
X
P (Aj )P (B|Aj )
j=1

În condiţiile date prin ipoteză are loc formula probabilităţii totale şi ţinând seama de
(1.2) obţinem
P (B ∩ Ai ) P (B|Ai )P (Ai )
P (Ai |B) = = n
P (B) X
P (Aj )P (B|Aj )
j=1

Exemplul 1.6.1 Controlul de calitate.Presupunem că ı̂ntr-o cutie sunt 550 de piese, din
care 2% sunt defecte. Care este probabilitatea ca alegând 25 de piese, acestea să conţină
două piese defecte. Acesta este principiul testării produselor prin selecţii aleatoare.
Problema poate fi rezolvată ı̂ntr-un caz general. Presupunem că avem k piese defecte
din m piese, k 6 m. Care este probabilitatea ca alegând n piese, dintre acestea j să fie
defecte?
24 Câmp de probabilitate

Putem alege cele n piese dintre cele m(m > n), fără să ne intereseze ordinea pieselor,
n
ı̂n Cm moduri. Câte din acestea vor conţine j piese defecte? Putem alege cele j piese
defecte, din cele k, ı̂n Ckj moduri, iar celelalte n − j care nu sunt defecte ı̂n Cm−k
n−j
moduri.
Probabilitatea căutată va fi
n−j
Cm−k Ckj
n
. (1.13)
Cm
În cazul nostru, m = 550, k = 11, n = 25, j = 2, astfel ı̂ncât probabilitatea căutată va fi
2 23
C11 C550
25
= 0, 12.
C550
Dacă ı̂nsumăm probabilităţile (1.13) după j, 0 6 j 6 n, rezultatul va fi 1, deoarece au
fost luate ı̂n considerare toate posibilităţile. Am demonstrat formula
k
X
Ckj Cm−k
n−j n
= Cm
j=0

cu argumente probabilistice.
Exemplul 1.6.2 Dacă se amestescă un pachet de cărţi, care este probabilitatea ca cei
patru aşi să apară unul după altul ?
Sunt 52 de cărţi dintre care patru aşi. Un rezultat posibil al experienţei este o ı̂nşiruire
de 52 de cărţi, adică o permutare a celor 52 de cărţi. Sunt 52! cazuri posibile. În câte din
aceste cazuri cei patru aşi se găsesc unul după altul? Cei patru aşi pot apare consecutiv
ı̂n 49 × 4! moduri. Restul de 48 de cărţi se pot aranja ı̂n 48! moduri. Folosind principiul
multiplicării, numărul cazurilor favorabile va fi 4! × 49 × 48!. Probabilitatea căutată va fi
49! × 4
= 0, 00003.
52!
Exemplul 1.6.3 Urna U1 conţine două bile roşii şi patru albe, urna U2 conţine o bilă
roşie şi două albe iar urna U3 conţine cinci bile roşii şi patru bile albe. Fie Ai evenimentul
de a extrage o bilă dintr-o urnă oarecare Ui , i = 1, 3. Presupunem că probabilitatea
de a extrage o bilă din urna Ui este P (A1 ) = 1/3, din U2 este P (A2 ) = 1/6 şi din
U3 , P (A3 ) = 1/2. Se cere probabilitatea de a extrage o bilă roşie.
Fie R evenimentul de a extrage o bilă roşie. Observăm că P (R) depinde ı̂n primul
rı̂nd de urna din care s-a făcut extragerea şi apoi de structura urnei din care am făcut
extragerea, adică R este reuniunea evenimentelor disjuncte A1 ∩ R, A2 ∩ R, A3 ∩ R. Facem
observaţia că A1 , A2 , A3 formează un sistem complet de evenimente. Astfel
3
[ 3
X 3
X 4
P (R) = P ( (Ai ∩ R)) = P (Ai ∩ R) = P (Ai )P (R|Ai ) =
i=1 i=1 i=1
9

Presupunem acum că rezultatul experienţei este o bilă roşie, dar nu ştim din ce urnă
provine. Dorim să calculăm probabilitatea ca bila roşie să provină din urna U1 , adică
P (A1 |R). Conform formulei lui Bayes
P (A1 )P (R|A1 ) 1
P (A1 |R) = = .
P (R) 4
Câmp de probabilitate 25

La fel
1 5
P (A2 |R) = P (A3 |R) = .
8 8
Observăm că probabilităţile condiţionate P (A1 |R), P (A2 |R), P (A3 |R) s-au modificat faţă
de probabilităţile iniţiale P (A1 ), P (A2 ), P (A3 ) ı̂ntr-un mod care confirmă intuiţia, adică
dacă s-a extras o bilă roşie, probabilitatea ca să aparţină urnei U3 este mai mare deoarece
U3 are un procent mai ridicat de bile roşii şi, de asemenea, probabilitatea de a selecta o bilă
roşie din U3 este mai mare decât din U2 sau U1 . Adesea P (A1 ), P (A2 ), P (A3 ) se numesc
probabilităţi apriori, iar P (A1 |R), P (A2 |R), P (A3 |R) se numesc probabilităţi aposteriori.

Exemplul 1.6.4 Un canal transmite semnale sub formă de şiruri formate din cifrele 0
şi 1. În canal pot apare perturbări care produc erori, astfel ı̂ncât ı̂n loc de 1 apare
0 sau invers. Să presupunem că prin B1 şi B2 ı̂nţelegem evenimentele care constau ı̂n
transmiterea cifrelor 1, respectiv 0, iar recepţionarea cifrelor 1 şi 0 le considerăm ca fiind
evenimentele aleatoare A1 şi respectiv A2 . Probabilităţile apriori pentru transmiterea lui
1 sau 0 sunt
P (B1 ) = p P (B2 ) = 1 − p = q
iar probabilitatea de a recepţiona 0, dacă s-a transmis 1, este egală cu q10 , pe când pro-
babilitatea de a recepţiona 1, dacă s-a transmis 0, este q01 . Să calculăm probabilităţile
aposteriori P (Bj |Ak ), j, k = 1, 2.
Conform formulei lui Bayes avem
P (Ak |Bj )P (Bj )
P (Bj |Ak ) = , j, k = 1, 2.
P (B1 )P (Ak |B1 ) + P (B2 )P (Ak |B2 )
Deoarece avem P (A2 |B1 ) = q10 , P (A1 |B2 ) = q01 şi notând p10 = 1 − q10 , p01 = 1 − q01 se
deduce
pp10 p(1 − p10 )
P (B1 |A1 ) = , P (B1 |A2 ) = ,
pp10 + (1 − p)(1 − p01 ) p(1 − p10 ) + (1 − p)p01
(1 − p)(1 − p10 ) (1 − p)p01
P (B2 |A1 ) = , P (B2 |A2 ) = .
pp10 + (1 − p)(1 − p01 ) p(1 − p10 ) + (1 − p)p01
Să observăm că
P (A1 ) = P (B1 )P (A1 |B1 ) + P (B2 )P (A1 |B2 ) = pp10 + (1 − p)(1 − p01 ),
iar
P (A2 ) = P (B1 )P (A2 |B1 ) + P (B2 )P (A2 |B2 ) = p(1 − p10 ) + (1 − p)p01 = 1 − P (A1 ).
În particular, ı̂n ipoteza că este vorba de un canal simetric (q01 = q10 şi deci p01 = p10 ),
iar p = q = 12 se deduce
1 1
P (A1 ) = pp10 + (1 − p)(1 − p10 ) = , P (A2 ) = p(1 − p10 ) + (1 − p)p10 =
2 2
P (B1 |A2 ) = P (B2 |A1 ) = 1 − p10 , P (B1 |A1 ) = P (B2 |A2 ) = p10 .
ceea ce era previzibil.
26 Câmp de probabilitate

Exemplul 1.6.5 Demonstrăm că dacă Ai , i ∈ I, I o mulţime finită de indici, {Ai }i∈I
formează un sistem complet de evenimente, atunci
[ X
P (( Ai )|A) = P (Ai |A). (1.14)
i∈I i∈I

Pornind de la membrul ı̂ntâi


[ [
P (( Ai ) ∩ A) P ( (Ai ∩ A))
[ i∈I i∈I
P (( Ai )|A) = =
i∈I
P (A) P (A)

şi ţinând seama de


(Ai ∩ A) ∩ (Aj ∩ A) = ∅, ∀i, j ∈ I, i 6= j,
obţinem
X X
P (Ai ∩ A) P (Ai |A)P (A)
[ i∈I i∈I
X
P (( Ai )|A)) = = = P (Ai |A).
i∈I
P (A) P (A) i∈I

Exemplul 1.6.6 Fie I o mulţime finită de indici, {Ai }i∈I un sistem complet de eveni-
mente şi A, B două evenimente oarecare. Atunci
[ X
P ( (A ∩ Ai )|B) = P (A|(Ai ∩ B))P (Ai |B) (1.15)
i∈I i∈I

Folosim formula (1.14) obţinem


X
P (A ∩ Ai ∩ B)
[ X i∈I
P ( (A ∩ Ai )|B) = P ((A ∩ Ai )|B) = =
i∈I i∈I
P (B)
X X
P (A|(Ai ∩ B))P (Ai ∩ B) P (A|(Ai ∩ B))P (Ai |B)P (B)
i∈I i∈I
= = =
P (B) P (B)
X
= P (A|(Ai ∩ B))P (Ai |B).
i∈I

1.7 Scheme clasice de probabilitate


Schema lui Poisson. Se dau n urne U1 , U2 , . . . , Un care conţin bile albe şi bile negre
ı̂n proporţii date, deci cunoaştem probabilităţile pi , i = 1, n, cu care este extrasă o bilă
albă din urna Ui . Se cere probabilitatea de a extrage k bile albe şi n − k bile negre, atunci
când din fiecare urnă se extrage câte o bilă.
Câmp de probabilitate 27

Notăm cu Ai evenimentul extragerii unei bile albe din urna Ui . Notăm şi Bk eveni-
mentul care constă ı̂n extragerea a k bile albe şi n − k bile negre, adică

Bk = (A1 ∩ . . . ∩ Ak ∩ Āk+1 ∩ Ān ) ∪ (A1 ∩ . . . ∩ Āk ∩ Ak+1 ∩ Āk+2 ∩ . . . ∩ Ān )

∪(Ā1 ∩ . . . ∩ Ān−k ∩ An−k+1 ∩ . . . ∩ An ),


numărul parantezelor fiind Cnk . Un eveniment

Ai1 ∩ . . . ∩ Aik ∩ Āik+1 ∩ . . . ∩ Āin

se realizează, ţinând seama că evenimentele sunt independente, cu probabilitatea

pi1 . . . pik qik+1 . . . qin

indicii i1 , i2 . . . , in reprezentând o permutare a indicilor 1, 2, . . . , n , iar litera p apare de


k ori cu indici diferiţi, iar q de n − k ori cu indici care nu apar ı̂n p . Se observă că după
aceiaşi regulă se calculează coeficientul lui xk din polinomul

P (x) = (p1 x + q1 )(p2 x + q2 ) . . . (pn x + qn ).

Schema lui Poisson permite rezolvarea problemelor ı̂n care se cere probabilitatea realizării
de k ori a unor evenimente A1 , A2 , . . . , An atunci când se repetă de n ori aceste experienţe,
presupuse independente, când cunoaştem P (Ai ) = pi , i = 1, n.
Exemplul 1.7.1 Într-un atelier sunt trei maşini. Prima dă 0,9 % rebut, a doua 1 % şi a
treia 1,3 %. Se ia la ı̂ntâmplare câte o piesă de la fiecare maşină. Se cere probabilitatea
ca două din piese să fie bune şi una rebut.

p1 = 0, 991, q1 = 0, 001, p2 = 0, 99,


.
q2 = 0, 01, p3 = 0, 987, q3 = 0, 013,
P (x) = (0, 991x + 0, 009)(0, 99x + 0, 01)(0, 987x + 0, 013).
Coeficientul lui x2 este

0, 991 × 0, 99 × 0, 013 + 0, 99 × 0, 987 × 0, 987 × 0, 009 + 0, 991 × 0, 987 × 0, 01 = 0, 0313.

Schema lui Bernoulli. Presupunem că ı̂n schema lui Poisson urnele U1 , U2 , . . . , Un
sunt identice. Atunci putem lua

p1 = p2 = . . . = pn = p, q 1 = q2 = . . . = qn = q

Probabilitatea extragerii a k bile albe se va obţine calculând coeficientul lui xk din poli-
nomul
P (x) = (px + q)n ,
adică va fi
Cnk pk q n−k .
Recunoaştem ı̂n această expresie termenul general al ridicării la puterea n a binomului px+
q. Pentru acest motiv schema se mai numeşte binomială. Deoarece urnele sunt identice,
28 Câmp de probabilitate

putem considera că toate extragerile se fac dintr-o singură urnă, bila extrasă punându-se
ı̂n urnă după fiecare extragere. Obţinem astfel schema lui Bernoulli. Probabilitatea de a
extrage k bile albe din n extrageri dintr-o urnă, punându-se de fiecare dată bila ı̂napoi,
este
Pn,k = Cnk pk q n−k ,
unde p este probabilitatea oţinerii unei bile albe dintr-o singură extragere şi q = 1 − p.
Schema lui Bernoulli se mai numeşte shema bilei revenite (ı̂ntoarse).

Exemplul 1.7.2 Se aruncă un zar de 5 ori. Se cere probabilitatea ca faţa cu un punct


să apară exact de două ori.
Avem:
1 5
p = , q = , n = 5, k = 2,
6 6
1 5
P5,2 = C52 ( )2 ( )3 = 0, 16.
6 6
Schema lui Bernoulli cu mai multe stări. Fie o urnă care conţine bile de m
culori c1 , c2 , . . . , cm iar pi probabilitatea ca la o extragere să obţinem o bilă de culoarea
ci . Probabilitatea ca ı̂n n extrageri să obţinem n1 bile de culoarea c1 , n2 bile de culoarea
c2 , . . . , nm bile de culoarea cm (n1 + n2 + . . . + nm = n) este

n!
pn1 1 pn2 2 . . . pnmm .
n1 ! n2 ! . . . nm !
Această schemă rezolvă problemele ı̂n care se cere probabilitatea ca ı̂n n efectuări ale
experienţei evenimentul Ai să se realizeze de ni ori, A1 , A2 , . . . , Am fiind un sistem complet
de evenimente şi P (Ai ) = pi , i = 1, m. Presupunem că ı̂n cele n efectuări ale experienţei
s-au obţinut succesiv
A1 . . . A1 A2 . . . A2 . . . Am . . . Am .
| {z } | {z } | {z }
n1 n2 nm

Acest eveniment se produce cu probabilitatea

p . . . p p . . . p . . . pm . . . pm .
| 1 {z }1 | 2 {z }2 | {z }
n1 n2 nm

Acelaşi rezultat ı̂l obţinem pentru orice altă ordine stabilită dinainte ı̂n care Ai apare de
ni ori. Rămăne să vedem ı̂n câte moduri putem scrie cele n simboluri, dintre care n1 egale
cu A1 , n2 cu A2 , . . . , nm cu Am .
n2
Cnn1 Cn−n1
n3
Cn−n1 −n2
nm
. . . Cn−n1 −n2 −...nm−1
=

n! (n − n1 )! (n − n1 − . . . nm−1 )!
= ... =
n1 ! (n − n1 )! n2 ! (n − n1 − n2 )! nm ! (n − n1 − . . . − nnm )!
n!
= .
n1 ! . . . nm !
Câmp de probabilitate 29

Exemplul 1.7.3 Se aruncă un zar de 5 ori. Care este probabilitatea ca exact de două
ori să apară faţa cu un punct şi exact de 2 ori să apară faţa cu două puncte?
Avem:
n = 5, n1 = 2, n2 = 2, n3 = 1,
1 1 2
p1 = , p2 = , p3 = ,
6 6 3
5! 1 1 2 5
P4,2,2,1 = × ( )2 ( )2 ( ) = .
2! × 2! × 1! 6 6 3 324
Schema hipergeometrică. O urnă conţine a bile albe şi b bile negre. Din această
urnă se extrag n bile (n 6 a + b) pe rând, fără a pune bila extrasă ı̂napoi ı̂n urnă (ceea
ce este echivalent cu a extrage n bile deodată). Se cere probabilitatea ca din cele n
bile extrase, k să fie albe (k 6 a) şi n − k negre (n − k 6 b). Pentru a calcula acestă
probabilitate vom stabili numărul cazurilor posibile şi numărul cazurlor favorabile.
n
Numărul cazurilor posibile este: Ca+b .
Numărul cazurilor favorabile: un grup de k bile albe dintr-un total de a bile albe
poate fi luat ı̂n Cak moduri; un grup de n − k bile negre din totalul de b bile negre poate
fi obţinut ı̂n Cbn−k moduri. Un grup de k bile albe şi n − k bile negre poate fi obţinut,
conform principiului multiplicării, ı̂n Cak Cbn−k moduri. Probabilitatea căutată este

Cak Cbn−k
n
.
Ca+b

Exemplul 1.7.4 La o tombolă sunt 400 bilete dintre care 4 câştigătoare. O persoană
cumpără 10 bilete. Care este probabilitatea să nu se găsească nici un bilet câştigător?
Avem
a = 4, b = 396,
k = 0, n − k = 10, n = 10,
C40 C396
10
p= 10
= 0, 903.
C400
În general, dacă urna conţine ai bile de culoarea ci , i = 1, m, probabilitatea de a obţine
n1 bile de culoarea c1 , n2 bile de culoarea c2 , . . . , nm bile de culoarea cm când facem
n = n1 + n2 + . . . + nm extracţii, este egală cu
Can11 Can22 . . . Canmm
.
Can1 +a2 +...+am

Exemplul 1.7.5 O urnă conţine 7 bile albe, 7 bile negre şi 6 verzi. Se extrag 9 bile.
Care este probabilitatea să obţinem câte 3 de fiecare culoare?
Avem
a1 = 7, a2 = 7, a3 = 6,
n1 = 3, n2 = 3, n3 = 3,
C73 C73 C63
p= 9
= 0, 145.
C20
30 Câmp de probabilitate

1.8 Câmp infinit de probabilitate


În numeroase cazuri practice nu este cu putinţă să evaluăm numărul cazurilor egal
posibile şi al celor favorabile pentru determinarea probabilităţii evenimentului care ne
interesează. Asemenea situaţii apar ı̂n studiul fenomenelor economice şi sociale, ı̂n efec-
tuarea controlului statistic al producţiei etc. Deci definiţia clasică a probabilităţii nu este
satisfăcătoare când mulţimea evenimentelor elementare este infinită.
În acest caz definim câmpul infinit de evenimente astfel :

Definiţia 1.8.1 O mulţime de evenimente { E, K },K 6= ∅, se numeşte câmp infinit de


evenimente dacă :

a) ∀A ∈ K ⇒ Ā ∈ K;
[
b) (An )n∈IN ∗ ⊂ K ⇒ An ∈ K.
n∈IN ∗

Consecinţe care rezultată din definiţie :

C1. ∅ ∈ K şi E ∈ K.
Într-adevăr, deoarece K 6= ∅ ⇒ ∃A ∈ K ⇒ Ā ∈ K → A ∪ Ā ∈ K ⇒ E ∈ K
E ∈ K ⇒ Ē ∈ K ⇒ ∅ ∈ K.

C2. Orice reuniune finită de evenimente din K este ı̂n K.


Într-adevăr, fie A1 , A2 , . . . , An ∈ K şi luăm Ai = ∅ pentru i > n. Conform b),
[∞ [n
Ai = Ai ∈ K
i=1 i=1

C3. Orice intersecţie (finită sau numărabită) de elemente din K este de asemenea ı̂n K.
Fie I o mulţime de indici finită sau numărabilă
\ [ \
Ai = Āi ∈ K ⇒ Ai ∈ K
i∈I i∈I i∈I

C4. Dacă A, B ∈ K atunci A \ B ∈ K (deoarece A \ B = A ∩ B̄ ∈ K).

C5. Dacă (An )n∈IN ∗ ⊂ K atunci

lim inf An ∈ K; lim sup An ∈ K.


n→∞ n→∞

Ţinem seama de definiţia limitei inferioare, respectiv superioare, de consecinţele C2,


C3 şi obţinem
∞ \
[ ∞ ∞ [
\ ∞
lim inf = ( Ak ) ∈ K; lim sup = ( Ak ) ∈ K.
n→∞ n→∞
n=1 k=n n=1 k=n
Câmp de probabilitate 31

C6. Dacă (An )n∈IN ∗ ⊂ K, atunci lim An ∈ K, dacă această limită există. În acest caz
n→∞

lim An = lim inf An = lim sup An ∈ K.


n→∞ n→∞ n→∞

Observaţia 1.8.1 Într-un câmp infinit de evenimente sunt permise operaţiile clasice cu
mulţimi.

Pentru a introduce noţiunea de probabilitate ı̂n asemenea cazuri, definim noţiunea de


măsură a unui eveniment al unui câmp infinit de evenimente.

Definiţia 1.8.2 Se numeşte măsură a unui eveniment A al câmpului infinit de eveni-


mente { E, K } o funcţie
m : K −→ IR
care satisface următoarele axiome:

a) ∀A ∈ K : m(A) > 0;

b) m(∅) = 0;
[ X
c) m( Ai ) = m(A) pentru (Ai )i∈I ⊂ K cu Ai ∩ Aj = ∅ i 6= j i, j ∈ I, iar I o
i∈I i∈I
mulţime cel mult numărabilă de indici.

Observaţia 1.8.2 Axioma c) se numeşte axioma aditivităţii complete a măsurii m. În


această axiomă intervine o reuniune numărabilă de evenimente, lucru despre care se poate
[∞
vorbi numai ı̂n cazul ı̂n care câmpul de evenimente este infinit. Introducem Ai ca fiind
i=1
evenimentul care constă ı̂n realizarea a cel puţin unuia din evenimentele A1 , A2 , . . . , An , . . ..

\
Analog, evenimentul Ai constă ı̂n realizarea tuturor evenimentelor A1 , A2 , . . . , An . . ..
i=1
Acceptarea axiomei c) este justificată; ea reprezintă o extindere naturală a proprietăţii
corespunzătoare din câmpurile finite de evenimente.

Observaţia 1.8.3 Când An+1 = An+2 = . . . = ∅ se obţine aditivitatea finită a măsurii


n
[ n
X
m( Ai ) = m(Ai ).
i=1 i=1

Observaţia 1.8.4 Din mulţimea funcţiilor de evenimente care satisfac axiomele a)-c)
interesează numai acelea pentru care m(E) < ∞, E fiind evenimentul cert.

Propoziţia 1.8.1 Dacă m(E) < ∞ atunci pentru orice eveniment A avem m(A) < ∞.

Demonstraţie. Deoarece A∪ Ā = E, A∩ Ā = ∅ ⇒ m(A∪ Ā) = m(A)+m(Ā) = m(E) < ∞.


Dar m(Ā) > 0 ⇒ m(A) 6 m(E) < ∞ ⇒ m(A) < ∞.
32 Câmp de probabilitate

Definiţia 1.8.3 Fie un câmp infinit de evenimente { E, K }. Se numeşte probabilitatea


evenimentului A ∈ K, măsura m(A) pentru care m(E) = 1

Definiţia 1.8.4 Se numeşte funcţie de probabilitate acea măsură a evenimentelor defi-


nită pe câmpul infinit de evenimente {E,K} care satisface proprietatea m(E) = 1.

Definiţia 1.8.5 Se numeşte câmp borelian (infinit) de probabilitate un câmp infinit de


evenimente { E, K } pe care s-a definit o funcţie de probabilitate P. Un câmp infinit de
probabilitate se notează { E, K, P }.

Problema cum trebuie determinată probabilitatea unui eveniment nu poate fi rezolvată


ı̂n general deoarece ea depinde ı̂n mod esenţial de natura fenomenului studiat.
Exemplul 1.8.1 De exemplu, ne vom referi la probabilităţile geometrice. Fie E ⊂ IRn
un domeniu. Un punct M ∈ E, luat la ı̂ntâmplare, se numeşte punct aleator. Fie o
submulţime A ⊂ E. Prin măsura lui A putem ı̂nţelege lungimea, aria sau volumul lui A.
Dacă admitem ipoteza că ı̂n cazul ı̂n care A, B ⊂ E şi m(A) = m(B) ⇒ A = B sunt
echivalente din punct de vedere al ariei, indiferent de forma domeniilor A şi B, putem
scrie
P (M ∈ A) = km(A)
unde k este un factor constant. Pentru ı̂ntreg domeniul E avem evenimentul sigur, deci

P (M ∈ E) = 1 = km(E)

de unde
1
k=
m(E)
şi deci obţinem probabilitatea
m(A)
P (M ∈ A) = .
m(K)

În cazul considerat, dacă A nu are decât un număr finit de puncte, P (M ∈ A) = 0.

Exemplul 1.8.2 Vom arăta cum se pote construi o funcţie de probabilitate pentru orice
mulţime numărabilă E = {e1 , e2 , . . . , en , . . .}. Fiecărui punct ei ı̂i ataşăm un număr pi
satisfăcând condiţiile
X∞
∀i ∈ IN ∗ : pi > 0, pi = 1
i=1

Fie K = P(E) şi A o submulţime a lui E. Definim


X X
P (A) = pi = P (ei )
ei ∈A ei ∈A

Constatăm imediat că { E, K, P } este un câmp infinit de probabilitate.

Dăm un exemplu de câmp de probabilitate.


Câmp de probabilitate 33

Exemplul 1.8.3 Fie B corpul borelian generat de mulţimea părţilor deschise de pe axa
reală IR şi o funcţie f definită pe E ∈ B cu valori ı̂n IR, integrabilă ı̂n raport cu măsura
Lebesque [vezi 22] şi care ı̂ndeplineşte condiţiile
Z
f (x) > 0, f (x)dx = 1.
E

Se verifică imediat că { E, K, P } este un câmp borelian de probabilitate, unde


K = {A ∩ E, A ∈ B},
iar Z
P (A) = f (x)χA (x)dx
E
pentru A ∈ K, unde 
1, dacă e ∈ A,
χA (e) =
0, dacă e ∈
/ A,
În particular, dacă f este continuă, punem
Z
P (A) = f (x)dx.
A

Se demonstrează că P satisface toate axiomele probabilităţii. Astfel de funcţii se pot găsi.
De exemplu
1 1 − x2
f (x) = sau f (x) = √ e 2.
π(1 + x2 ) 2π
În câmpurile infinite de probabilitate se păstrează noţiunile şi proprietăţile din câm-
purile finite de probabilitate.
1. Probabilitatea condiţionată se defineşte plecând de la relaţia
P (A ∩ B)
P (A|B) = , dacă P (B) 6= 0.
P (B)
Se poate demonstra că tripletul { E, K, PB } este un câmp borelian de probabilitate.
Într-adevăr,
– P (A|B) > 0 deoarece P (A ∩ B) > 0 şi P (B) > 0.
– Dacă A = E atunci, deoarece E ∩ B = B, rezultă
P (B)
P (E|B) = = 1.
P (B)
– Dacă (Ai )i∈I ⊂ K este o familie cel mult număarbilă de evenimente incompati-
bile două câte două, atunci şi evenimentele (A ∩ Ai )i∈I sunt incompatibile două
câte două şi
[ [
P (B ∩ ( Ai )) P ( (B ∩ Ai ))
\ i∈I i∈I
P ( Ai |B) = = =
i∈I
P (B) P (B)
34 Câmp de probabilitate
X
P (B ∩ Ai )
i∈I
X
= = P (Ai |B).
P (B) i∈I

2. Formula probabilităţii totale şi formula lui Bayes rămân valabile dacă considerăm
sisteme complete de evenimente numărabile. Fie (Ai )i∈I ⊂ [ K o familie cel mult
numărabilă de evenimente incompatibile două câte două cu Ai = E şi P (Ai ) 6=
i∈I
0, i ∈ I, atunci X
P (A) = P (Ai )P (A|Ai )
i∈I

şi
P (Ai )P (A|Ai )
P (Ai |A) = X i ∈ I.
P (Aj )P (A|Aj )
j∈I

Definiţia 1.8.6 Se spune că evenimentele (An )n∈IN ⊂ K sunt independente dacă orice
număr finit de evenimente din acest şir este independent.

Există şi proprietăţi noi ale funcţiei de probabilitate P cum ar fi următoarele:

Propoziţia 1.8.2 Fie (An )n∈IN ∗ ⊂ K şi P o funcţie de probabilitate. Atunci


[ X
P( An ) 6 P (An ).
n∈IN ∗ n∈IN ∗

Demonstraţie. Introducem un şir de evenimente din K ı̂n felul următor:

A01 = A1
A02 = A2 \ A1
n
[
A0n+1 = An+1 \ ( Aj ).
j=1

Evenimentele (A0n )n∈IN ∗ prin modul ı̂n care au fost construite sunt incompatibile două
câte două; ı̂n plus A0n ⊆ An , n ∈ IN ∗ . Demonstrăm că
[ [
A0n = An .
n∈IN ∗ n∈IN ∗
[ [
Evident A0n ⊂ An .
n∈IN ∗ n∈IN ∗ [
Demonstrăm incluziunea contrară. Fie e ∈ An şi n0 cel mai mic număr natural
n∈IN ∗
n pentru care e ∈ An0 ; rezultă deci
[
e ∈ A0n0 ⊂ A0n ,
n∈IN ∗
Câmp de probabilitate 35
[ [
An ⊂ A0n
n∈IN ∗ n∈IN ∗

adică ceea ce trebuia de demonstrat. De aici rezultă că


[ [ X X
P( An ) = P ( A0n ) = P (A0n ) 6 P (An )
n∈IN ∗ n∈IN ∗ n∈IN ∗ n∈IN ∗

datorită proprietăţilor de aditivitate şi monotonie a probabilităţii.

Propoziţia 1.8.3 Inegalitatea lui Boole. Dacă (Ai )i∈I ⊂ K este o mulţime cel mult nu-
mărabilă de evenimente, atunci
\ X
P ( Ai ) > 1 − P (Āi ).
i∈I i∈I

Demonstraţie. Din relaţiile lui De Morgan avem


\ [
Ai = ( Āi )
i∈I i∈I

deci \ [ [
P ( Ai ) = P ( Āi ) = 1 − P ( Āi )
i∈I i∈I i∈I

dar [ X
P ( Āi ) 6 P (Āi )
i∈I i∈I

şi obţinem inegalitatea dorită.

Definiţia 1.8.7 Un şir de evenimente (An )n∈IN ∗ este ascendent (descendent) dacă Aj ⊂
(⊃)Ai pentru j < i, i, j ∈ IN ∗ , i 6= j.

Propoziţia
\ 1.8.4 Fie (An )n∈IN ∗ un şir descendent de evenimente din K. Dacă A =
An , atunci
n∈IN ∗
\
lim P (An ) = P ( An ) = P (A).
n→∞
n∈IN ∗

Demonstraţie. a) Considerăm cazul ı̂n care A = ∅. Trebuie să arătăm că

lim P (An ) = 0.
n→∞

Deoarece (An )n∈IN ∗ este un şir descendent, putem scrie

An = (An \ An+1 ) ∪ (An+1 \ An+2 ) ∪ . . .

şi deci An apare ca o reuniune de evenimente incompatibile, căci

(An+k \ An+k+1 ) ∩ (An+s \ An+s+1 ) = ∅


36 Câmp de probabilitate

dacă k 6= s şi obţinem



X ∞
X
P (An ) = P (Ai \ Ai+1 ) = (P (Ai ) − P (Ai+1 )),
i=n i=n
iar seria ∞
X
P (Ai \ Ai+1 ) = P (A1 )
i=1
este convergentă, deci restul seriei converge la zero când n → ∞, deci lim P (An) = 0.
n→∞
b) Considerăm cazul A 6= ∅. Vom introduce evenimentele Cn = An \ A, n ∈ IN ∗ , care
reduc acest caz la cazul precedent. Şirul (Cn )n∈IN ∗ este un şir descendent şi deoarece
\∞
Cn = ∅, rezultă, conform cazului a) că
n=1

lim P (Cn ) = 0
n→∞
Dar
P (Cn ) = P (An \ A) = P (An ) − P (A)
şi deci
lim P (An ) = P (A).
n→∞

Propoziţia
[ 1.8.5 Fie (An )n∈IN ∗ un şir ascendent de evenimente din K. Dacă A =
An , atunci
n∈IN ∗
[
lim P (An ) = P ( An ) = P (A).
n→∞
n∈IN ∗

Demonstraţie. Trecem la evenimentele complementare; şirul (Ān )n∈IN ∗ este descendent, ∪


se transformă ı̂n ∩ şi se aplică propoziţia 1.8.4.
Definiţia 1.8.8 Fie (π) o proprietate descrisă de o propoziţie formulată ı̂ntr-un câmp
borelian de probabilitate {E, K, P }. Dacă toate evenimentele elementare care nu implică
proprietatea (π) formează un eveniment de probabilitate nulă atunci vom spune că (π)
este adevărată aproape sigur.
Observaţia 1.8.5 În câmpuri infinite de probabilitate pot exista evenimente diferite de
evenimentul imposibil şi care să aibă probabilitatea nulă.
Exemplul 1.8.4 Fie un ceas şi presupunem că acele sale se opresc la ı̂ntâmplare. Să se
determine probabilitatea ca minutarul să se oprească ı̂n dreptul uneia din cele 12 cifre ale
cadranului este nulă.
Aceata rezultă din observaţia că probabilitatea ca minutarul să se oprească ı̂ntr-un
segment al circumferinţei cadranului este proporţională cu lungimea acestuia. Ori cele 12
cifre ale cadranului alcătuiesc o mulţime formată din 12 puncte ale circumferinţei, fiecare
din acestea fiind asimilat cu un segment de o lungime nulă. Evident, nu este exclus ca
minutarul să se oprească ı̂n dreptul unei cifre. Proprietatea ”minutarul nu se opreşte ı̂n
dreptul unei cifre a cadranului ” este o proprietate aproape sigură.
Câmp de probabilitate 37

1.9 Probleme propuse


Problema 1.1 Se joacă un joc. Partida este considerată câştigată de primul dintre cei
doi jucători care câştigă trei jocuri. Dacă jocul se ı̂ntrerupe la scorul de 2-1, cum trebuie
ı̂mpărţită miza?
Soluţie. La prima vedere s-ar părea că miza trebuie ı̂mpărţită ı̂n trei părţi egale şi
căştigătorul ia două părţi. Corect este ca miza să fie ı̂mpărţită proporţional cu probabi-
litatea pe care o are fiecare jucător de a câştiga partida, dacă acesta ar fi continuat.
Să presupunem că se mai joacă două jocuri (indiferent de rezultatul primului joc).
Notăm cu 1 dacă jucătorul a câştigat partida şi cu 0 dacă a piedut-o. Prin notaţia (1,
0) ı̂nţelegem că primul jucător a câştigat prima partida iar al doilea nu a piedut a doua
partidă. Sunt următoarele posibilităţi: (1, 1), (1, 0), (0, 1) şi (0, 0), din care rezultă că
primul jucător, care conduce cu 2-1, are trei şanse şi al doilea una singură. Miza trebuie
ı̂mpărţită ı̂n patru părţi egale şi primul jucător ia trei părţi, iar al doilea o parte.
Problema 1.2 Un student are de răspuns la n ı̂ntrebări, cărora trebuie să le asocieze
răspunsul corect dintre n răspunsuri indicate. Stabiliţi probabilitatea ca studentul să
răspundă la:
a) prima ı̂ntrbare;
b) primele două ı̂ntrebări;
c) cel puţin o ı̂ntrebare.
Indicaţie. a) numătul cazurilor posibile: n!, numărul cazurilor favirabile (n − 1)!,
probabilitatea căutată: 1/n;
b) 1/(n − 2)!;
c) dacă notăm cu Ai evenimentul că studentul răspunde corect la ı̂ntrebarea i, eveni-
mentul căutat este A1 ∪ A2 ∪ . . . ∪ An . Folosind formula (1.9) obţinem: 1 − 1/2! + 1/3! −
. . . + (−1)n−1 1/n!.
Problema 1.3 Evenimentul A constă ı̂n apariţia cel puţin o dată a feţei 5 aruncând
un zar de 4 ori, iar evenimentul B constă ı̂n apariţia feţei 5 cel puţin de două ori, aruncând
de 18 ori câte două zaruri. Care din cele două evenimente este cel mai probabil?
Indicaţie. Se poate interpreta apariţia feţei 5 a unui zar ca o urnă cu două stări, una
5 4 5 4
”faţa cu cu 5” cu probabilitatea q = 5/6. P (Ā) = ( ) , P (A) = 1 − ( ) . Deoarece
6 6
aruncările sunt independete, ı̂n loc să aruncăm de 18 ori câte două zaruri, putem arunca
36 de zaruri o singură dată.
5 1 5
P (B̄) = ( )36 + 36 ( )35 .
6 6 6
Avem
5 41
P (B̄) ( )35
= 6 6 < 7( 5 )31 < 1.
P (Ā) 5 6
( )4
6

Problema 1.4 Un calculator este format din n componente. Probabilitatea ca o


componentă i să se nu defecteze ı̂n perioada de timp T este pi , i = 1, n. Componentele se
38 Câmp de probabilitate

defectează independent unele de celelalte. Să se calculeze probabilitatea ca ı̂n perioada


de timp T calculaterul să se defecteze. (Defectarea unei componente conduce la oprirea
calculatorului.)
Soluţie. Caculăm probabilitatea evenimentului contrar, adică ı̂n perioada de timp T
calculatorul să funcţioneze. Aceasta ı̂nseamnă că toate componentele să nu se defecteze,
Yn n
Y
iar probabilitatea acestui eveniment este pi . Probabilitatea căutată va fi 1 − pi .
i=1 i=1

Problema 1.5 Un circuit electric are patru relee a căror funcţionare este egal prob-
abilă (funcţionează şi se pot defecta independent unul de celălalt), montate după Figura
1.1. Calculaţi probabilitătea ca ı̂ntre punctele A şi B să nu circule curentul.
Soluţie. Ntoăm cu Ai evenimentul ”releul Ri este defect”. Curentul nu circulă atunci
când se realizează evenimentul

((A1 ∪ A2 ) ∩ A4 ) ∪ A3 = (A1 ∩ A4 ) ∪ (A2 ∩ A4 ) ∪ A3 .

Cum orice releu poate fi ı̂n două poziţii, ı̂nchis sau deschis, rezultă că numărul cazurilor
posibile este 24 = 16.
Probabilitatea căutată este 2 · 4/16 − 8/16 − 3 · 2/16 + 1/16.
Problema 1.6 Trei mesaje sunt transmise pe un canal de comunicare, pe fiecare dintre
ele putând fi transmis cu o anumită exactitate. Transmiterea unui mesaj poate conduce
la unul din următoarele evenimente:
a) A1 = { mesajul este transmis ı̂ntr-o formă corectă }.

b) A2 = { mesajul este parţial eronat }.

c) A3 = { mesajul este complet eronat }.


Probabilităţile evenimentelor A1 , A2 , A3 sunt date şi anume egale cu p1 , p2 şi p3 , (p1 +
p2 + p3 = 1). Considerând că transmiterea corectă sau eronată a unui mesaj nu este
influenţată de modul de transmitere a celorlalte (independenţa evenimentelor), să se
găsească probabilităţle următoarelor evenimente:
i) A = { toate mesajele sunt transmise corect }.

ii) B = { cel puţin un mesaj să fie complet eronat }.

iii) C = { cel puţin două mesaje sunt parţial sau complet eronate }.
Soluţie. Notăm următoarele evenimente astfel:
A11 = { primul mesaj transmis este corect },
A12 = { al doilea mesaj transmis este corect },
A13 = { al treilea mesaj transmis este corect },
A21 = { primul mesaj transmis este parţial eronat },
A22 = { al doilea mesaj transmis este parţial eronat },
A23 = { al treilea mesaj transmis este parţial eronat },
A31 = { primul mesaj transmis este complet eronat },
Câmp de probabilitate 39

A32 = { al doilea mesaj transmis este complet eronat },


A33 = { al treilea mesaj transmis este complet eronat }.
Avem P (A11 ) = P (A12 ) = P (A13 ) = p1 , P (A21 ) = P (A22 ) = P (A23 ) = p2 , P (A31 ) =
P (A32 ) = P (A33 ) = p3 . Evenimentul A ı̂nseamnă că primul mesaj transmis este corect
şi al doilea mesaj transmis este corect şi al treilea mesaj transmis este corect, adică
A = A11 ∩ A12 ∩ A13 şi deoarece evenimentele sunt independente (conform presupunerii
făcute) avem P (A) = p31 . Complementarul evenimentului B este: toate mesajele sunt sau
corecte sau parţial eronate, deci B = (A11 ∪A12 )∩(A21 ∩A22 )∪(A31 ∩A32 ). Probabilitatea
acestui eveniment este (p1 + p2 )3 , iar P (B) = 1 − (p1 + p2 )3 . Evenimentul C este compus
din reuniunea evenimentelor: (primul mesaj este corect şi al doilea mesaj este parţial sau
complet eronat şi al treilea mesaj este parţial sau complet eronat) sau (primul mesaj este
parţial sau complet eronat şi al doilea mesaj este corect şi al treilea mesaj este parţial sau
complet eronat) sau (primul mesaj este parţial sau complet eronat şi al doilea este parţial
sau complet eronat şi al treilea mesaj este corect) sau (toate cele trei mesaje sunt parţial
sau complet eronate), adică C = (A11 ∩ ((A22 ∪ A32 ) ∩ (A23 ∪ A33 ))) ∩ ((A21 ∪ A31 ) ∩ A12 ∩
(A23 ∪ A33 )) ∩ ((A21 ∪ A31 ) ∩ (A22 ∪ A32 ) ∩ A31 ) ∪ ((A21 ∪ A31 ) ∩ (A22 ∪ A32 ) ∩ (A23 ∪ A33 )).
Probabilitatea acestui eveniment este P (C) = 3(p2 + p3 )2 p1 + (p2 + p3 )3 .
Problema 1.7 Un mesaj important este transmis simultan pe n canale de comunicaţie
şi repetat pe fiecare canal de k ori pentru a uşura recepţionarea sa corectă. Probabili-
tatea ca ı̂n timpul transmisiei unui mesaj acesta să fie eronat este p şi nu depinde de
transmiterea altor mesaje. Fiecare canal de comunicaţie poate fi ”blocat” cu zgomote
cu probabilitatea q; un canal ”blocat” nu poate transmite nici-un fel de mesaje. Să se
calculeze probabilitatea evenimentului
A = { un mesaj este transmis sub formă corectă măcar odată }.
Soluţie. Introducem evenimentul:
B = { un mesaj este transmis pe un canal de comunicaţie fără nici o eroare măcar
odată }.
Pentru ca să aibă loc evenimentul B mai ı̂ntâi canalul nu trebuie să fie ”blocat” cu
zgomote şi apoi măcar unul din cele k mesaje transmise nu trebuie să fie eronat (contrar
evenumentului că toate cele k mesaje transmise sunt eronate). Obţinem P(B) = (1−q)(1−pk).
Probabilitatea evenimentului A, eveniment care ı̂nseamnă că evenimentul B s-a produs
măcar odată pe un canal, este P (A) = 1 − (1 − P (B))n = 1 − (1 − (1 − q)(1 − pk ))n .
Problema 1.8 Un mesaj format din cifrele 0 şi 1 este transmis. Fiecare simbol poate
fi transmis eronat cu probabilitatea p (este schimbat ı̂n contrarul său cu probabilitatea q).
Pentru siguranţă, mesajul este transmis de două ori; informaţia este considerată corectă
dacă ambele mesaje coincid. Să se calculeze probabilitatea ca mesajul să nu fie corect, ı̂n
ciuda faptului că cele două mesaje transmise sunt identice.
Soluţie. Evenimentul ca mesajul să nu fie corect este contrar evenimentului că ambele
mesaje sunt corecte. Probabilitatea ca un mesaj transmis să fie corect este (1 − p)n ,
probabilitatea ca ambele mesaje să fie corecte este (1 − p)2n , iar probabilitatea căutată
este 1 − (1 − p)2n .
Problema 1.9 Fie opt canale de transmitere a informaţiei care funcţionează inde-
pendent. Presupunem că un canal este activ cu probabilitatea 1/3. Să se calculeze
probabilitatea ca la un moment dat să fie mai mult de şase canale active.
40 Câmp de probabilitate

Soluţie. Pentru i = 1, . . . , 8 fie Ai evenimentul: ”canalul i este activ”. Numărul


canalelor active este egal cu numărul de realizări ale evenimentelor Ai , i = 1, . . . , 8, ı̂n opt
experienţe Bernoulli cu p = 1/3. Atunci probabilitatea ca mai mult de şase canale să fie
active este

P (k = 7) + P (k = 8) = C87 (1/3)7 (2/3) + C88 (1/3)8 = 0, 0024 + 0, 00015 = 0, 00259

Problema 1.10 Un bloc de 100 de biţi este transmis pe un canal de comunicaţie binar
cu probabilitatea de eroare pe bit 10−3 . Să se găseacă probabilitatea ca blocul să conţină
trei sau mai mult de trei erori.
R:1.5 · 10−4 .
Problema 1.11 Un asamblor de calculatoare foloseşte circuite din trei surse: A, B
şi C. Ele pot fi defecte cu probabilităţile de respectiv 0,001, 0,005 şi 0,01. Dacă se ia un
circuit la ı̂ntı̂mplare şi se constată că este defect, care este probabilitatea ca el să provină
de la sursa A sau B.
Soluţie. Fie A1 evenimentul ca circuitul să provină de la sursa A, A2 de la sursa B
şi A3 să provină de la sursa C. Fie D evenimentul ca circuitul folosit să fie defect, iar
D|Ai , i = 1, 2, 3 evenimentul ca circuitul folosit să fie defect ştiind că el provine de la sursa
A, B şi respectiv C. Avem

P (D|A1 ) = 0, 001, P (D|A2 ) = 0, 005, P (D|A3 ) = 0, 01

Folosind formula lui Bayes (1.12) obţinem

P (A1 |D) = 1/16, P (A2 |D) = 10/16.

Deoarece evenimentele A1 |D şi A2 |D sunt incompatible, rezultă

P (A1 ∪ A2 |D) = P (A1 |D) + P (A2 |D) = 11/16 = 0, 6875.

Problema 1.12 Multe sisteme de comunicaţie pot fi modelate ı̂n felul următor: mai
ı̂ntâi utilizatorul introduce 0 sau 1 ı̂n sistem şi semnalul corespunzător este transmis; ı̂n
al doilea rând ia o decizie asupra a ceea ce s-a introdus ı̂n sistem pe baza semnalului
receptionat. Presupunem că utilizatorul transmite 0 cu probabilitatea 1 − p şi 1 cu pro-
babilitatea p şi că cel ce receptionează ia o decizie eronată cu probabilitatea ε. Pentru
i = 0, 1 fie Ai evenimentul că la intrare s-a introdus i şi Bi evenimentul că decizia celui
ce receptionează a fost i. Să se calculeze probabilităţile P (Ai ∩ Bj ) pentru i = 0, 1 şi
j = 0, 1.
Presupunem că probabilităţile ca la intrare să se transmită 0 sau 1 sunt egale cu 1/2.
Să se calculeze probabilitatea evenimentului B1 . Dar probabilitatea de a se fi transmis 0
ştiind că s-a receptionat 1? Dar probabilitatea de a se fi transmis 1 ştiind că s-a receptionat
1?
Soluţie.
Câmp de probabilitate 41

Se obţin probabilităţile
P (A0 ∩ B0 ) = (1 − p)(1 − ε)
P (A0 ∩ B1 ) = (1 − p)ε
P (A1 ∩ B0 ) = pε
P (A1 ∩ B1 ) = p(1 − ε).
Evenimentele A1 şi A2 formează un sistem complet de evenimente pentru spaţiul de selecţie
E = {0, 1}. Pentru a calcula probabilitatea evenimentului B1 aplicăm formula proba-
bilităţii totale:

P (B1 ) = P (A0 )P (B1 |A0 ) + P (A1 )P (B1 |A1 ) = 1/2ε + 1/2(1 − ε) = 1/2.

Aplicând formula lui Bayes obţinem probabilităţile (pe care le-am mai numit posteori);
P (B1 |A0 )P (A0 ) ε/2
P (A0 |B1 ) = = =ε
P (B1 ) 1/2
P (B1 |A1 )P (A1 ) (1 − ε)/2
P (A1 |B1 ) = = = 1 − ε.
P (B1 ) 1/2
Dacă ε este mai mic decât 1/2 atunci este mai probabil ca la intrare să avem 1 decât 0
dacă la ieşire s-a primit semnalul 1.
Problema 1.13 Un sistem constă dintr-o unitate centrală şi trei unităţi periferice.
Sistemul funcţionează la capacitate optimă dacă unitatea centrală şi două unităţi per-
iferice funcţionează. Să se calculeze probabilitatea ca sistemul să funcţioneze la capacitate
optimă presupunând că defectarea unităţilor se face independent una de cealalta.
Soluţie. Definim următorele evenimente: A-unitatea centrală funcţionează; Bi -unita-
tea periferică i funcţionează, unde i = 1, 2, 3. Evenimentul F -două sau mai multe unităţi
periferice funcţionează ı̂nseamnă că toate trei unităţile periferice funcţionează sau exact
două unităţi periferice funcţionează. Astfel:
F = (B1 ∩ B2 ∩ B̄3 ) ∪ (B1 ∩ B̄2 ∩ B3 ) ∪ (B̄1 ∩ B2 ∩ B3 )∪
∪(B1 ∩ B2 ∩ B3 ).
Observăm că evenimentele de mai sus din paranteze sunt indepandente ı̂ntre ele şi deci
P (F ) = P (B1 )P (B2 )P (B̄3 ) + P (B1 )P (B̄2 )P (B3 )+
+P (B̄1 )P (B2 )P (B3 ) + P (B1 )P (B2 )P (B3 ) =
= 3(1 − a)2 a + (1 − a)3
unde s-a presupus că fiecare periferic se defectează cu probabilitatea egală cu a, astfel ı̂ncât
P (Bi ) = 1 − a şi P (B̄i ) = a. Evenimentul ”sistemul funcţionează la capacitate optimă”
este A ∩ F . Dacă presupunem că unitatea centrală se defectează cu probabilitatea p,
atunci:

P (A ∩ F ) = P (A) P (F ) = (1 − p)P (F ) = (1 − p)3(1 − a)2 a + (1 − a)3 .

Fie a = 10%, atunci toate cele trei periferice sunt funcţionale (1 − a)3 = 72, 9% din timp
iar două sunt funcţionale şi una defectă 3(1 − a)2 a = 24, 3% din timp. Astfel două sau
42 Câmp de probabilitate

mai multe, periferice funcţtionează 97, 2% din timp. Presupunem că unitatea centrală nu
este foarte bună, şi anume p = 20%, atunci sistemul funcţionează la capacitate optimă
numai 77, 8% din timp, aceasta datorită faptului că unitatea centrală se defectează.
Presupunem că s-a introdus ı̂n sistem o a doua unitate centrală identică cu prima,
adică p = 20% şi sistemul funcţionează la capacitate optimă dacă măcar una din cele două
unităţi centrale funcţionează. Să calculăm cât la sută din timp funcţionează sistemul ı̂n
acest caz. Definim evenimentele Ai -unitatea centrală i = 1, 2 funcţionează. Evenimentul
”sistemul funcţionează la capacitate optimă” este, ı̂n acest caz, (A1 ∩F )∪(A2 ∩F ). Atunci

P [(A1 ∩ F ) ∪ (A2 ∩ F )] = P (A1 ∩ F ) + P (A2 ∩ F )−


−P [(A1 ∩ F ) ∩ (A2 ∩ F )] = P (A1 ) P (F ) + P (A2 ) P (F ) − P (A1 ∩ A2 ∩ F ) =
= P (A1 ) P (F ) + P (A2 ) P (F ) − P (A1 ) P (∩A2 ) P (∩F ) =
= 2(1 − p)3(1 − a)2 a + (1 − a)3 − (1 − p)2 3(1 − a)2 a + (1 − a)3 = 93, 3%

Aceasta a condus la o creştere de 15.5% a timpului de funcţionare faţă de cazul ı̂n care
sistemul funcţiona cu o singură unitate centrală.
Problema 1.14 Un sistem de comunicaţie transmite informaţie bimară pe un canal
care introduce la transmiterea unui bit erori aleatoare cu probabilitatea ε = 10−3 . Fiecare
bit este transmis de trei ori şi ı̂n funcţie de semnalul majoritar recepţionat se decide
informaţia ca fiind cea transmisă. Să se calculeze probabilitatea ca decizia luată să fie
incorectă.
Soluţie. Cel ce recepţionează va lua o decizie eronată dacă canalul introduce două
sau mai multe erori. Dacă privim fiecare transmitere ca o experienţă Bernoulli ı̂n care
realizarea evenimentului corespunde introducerii unei erori, atunci probabilitatea de a se
produce două sau mai multe erori ı̂n trei experienţe Bernoulli este

P [k > 2] = C32 (0, 001)2 (0, 999) + C33 (0, 001)3 ≈ 3 × 10−6

Problema 1.15 O informaţie telegrafică constă din semnale ”liniuţe” şi ”puncte”.
În medie se deformează 2/5 din semnalele cu ”puncte” şi ”liniuţe”. Este cunoscut că
semnalele ”puncte” şi ”liniuţe” se ı̂ntâlnesc ı̂n raportul 5/3.
Să se determine probabilitatea ca:
a) primind un semnal consacrat, acesta să fie ”punct” şi
b) probabilitatea ca el să fie ”liniuţă”.
Soluţie. Notăm cu A evenimentul de primire a semnalului ”punct”, iar prin B eveni-
mentul de primire a semnalului ”liniuţă”. Se pot considera următoarele ipoteze: H1 este
transmis semnalul ”punct”, H2 este transmis semnalul ”liniuţă”. Avem

P (H1 ) 5
= , P (H1 ) + P (H2 ) = 1.
P (H2 ) 3

deci
5 3
P (H1 ) = , P (H2 ) =
8 8
Câmp de probabilitate 43

şi
3 1 2 2
P (A|H1 ) = , P (A|H2 ) = , P (B|H1 ) = , P (B|H2 ) = .
5 3 5 3
Folosind formula probabilităţii totale obţinem:
53 31 1 52 32 1
P (A) = + = , P (B) = + = .
85 83 2 85 83 2
Avem cele două probabilităţi:

P (H1 )P (A|H1 ) 3
a) P (H1 |A) = = ,
P (A) 4

P (H2 )P (B|H2 ) 1
b) P (H2 |B) = = .
P (B) 2
44 Câmp de probabilitate
Capitolul 2

Variabile aleatoare discrete

2.1 Definiţia şi clasificarea variabilelor aleatoare


Una din noţiunile fundamentele ale teoriei probabilităţilor este cea de variabilă aleatoare.
Teoria clasică a probabilităţilor operează, ı̂n principal, cu evenimente, iar teoria modernă
preferă, unde este posibil, să studieze variabile aleatoare.
Fie { E,K,P } un câmp borelian de probabilitate care a fost definit ı̂n Capitolul 1.8.
Definiţia 2.1.1 Funcţia
X : E → IR
se numeşte variabilă aleatoare dacă

∀x ∈ IR {e ∈ E | X(e) < x} ∈ K. (2.1)

Pentru simplitate, vom nota {e ∈ E | X(e) < x} = {X < x}.


Observaţia 2.1.1 Nu este obligatoriu X(E) = IR, deci X(E) ⊆ IR; X(E) reprezintă
mulţimea valorilor variabilei aleatoare.
După proprietăţile mulţimii valorilor variabilei aleatoare, adică după proprietăţile mulţi-
mii X(E), clasificăm variabile aleatoare astfel:
• variabile aleatoare de tip discret, dacă X(E) este cel mult numărabilă; dacă X(E)
este finită, variabila aleatoare se numeşte discretă simplă, iar dacă X(E) este in-
finită, dar numărabilă, variabila aleatoare se numeşte discretă cu o infinitate de
valori.
• variabile aleatoare de tip continuu, dacă X(E) este o mulţime infinită de numere
reale.
Exemple de variabile aleatoare discrete:
• variabile aleatoare ale cărei valori reprezintă numărul de apeluri zilnice primite la o
centrală telefonică,
• variabila aleatoare ale cărei valori reprezintă numărul de ruperi de fire la o maşină
de cusut,

45
46 Variabile aleatoare discrete

• variabila aleatoare ale cărei valori reprezintă numărul de puncte apărute pe o faţă
a zarului, la aruncarea unui zar.
Exemple de variabile aleatoare de tip continuu:
• timpul de funcţionare a unui aparat, până la prima defectare,

• mărimile erorilor comise la efectuarea măsurătorilor,

• viteza unei particule, care se modifică ı̂n funcţie de ciocnirile cu alte particule.
În fiecare din aceste exemple, unui fenomen, supus unor circumstanţe aleatoare, i se
asociază un număr real, deci se stabileşte o corespondenţă ı̂ntre spaţiul de selecţie E conve-
nabil ales şi IR. În practică, de multe ori este dificil să găsim valorile acestor corespondenţe,
dar e posibil să determinăm ”cât de des” sunt luate ele. Astfel, ı̂n ultimul exemplu, putem
aprecia cu ce probabilitate viteza X a particulei este mai mică decât 0,1, deci putem
calcula P ({ e ∈ E | X(e) < 0, 1 }).
Definiţia 2.1.2 Funcţia
F : IR → [0, 1]
definită prin
F (x) = P ({ e ∈ E | X(e) < x}) (2.2)
se numeşte funcţie de repartiţie.
Determinarea pentru orice x ∈ IR a probabilităţii cu care X ia valori mai mici ca x,
ı̂nseamnă definirea funcţiei de repartiţie.

2.2 Variabile aleatoare discrete simple


Condiţia (2.1) din Definiţia 2.1.2 are loc ı̂ntotdeauna ı̂n cazul variabilelor aleatoare dis-
crete, alegând eventual un câmp borelian convenabil. În cest caz putem spune că:
Definiţia 2.2.1 Fie { E, K, P } un câmp de probabilitate cu E cel mult numărabilă.
Se numeşte variabilă aleatoare orice aplicaţie X definită pe mulţimea evenimentelor ele-
mentare cu valori ı̂n mulţimea numerelor reale IR.
Ilustrăm trecerea de la eveniment la variabilă aleatoare.
Exemplul 2.2.1 Considerăm o experienţă şi un eveniment A legat de aceasta. În loc de
evenimentul A putem considera funcţia χA care ia valoarea 1 dacă s-a realizat A şi 0 dacă
s-a realizat Ā, adică dacă A ⊂ E, A ∈ K:

χA : E → {0, 1}

1, dacă e ∈ A
χA (e) =
0, dacă e ∈
/ A.
Funcţia χA se numeşte indicatoarea evenimentului A (variabila aleatoare a evenimentului
A).
Variabile aleatoare discrete 47

Această idee poate fi extinsă ı̂n sensul că putem considera o experienţă şi legat de
aceasta un sistem complet de evenimente (Ai )16i6n . Definim funcţia X pe acest sistem
complet de evenimente convenind să-i atribuim valoarea n − j ı̂n cazul ı̂n care s-a realizat
evenimentul Aj , j = 1, n. Astfel, variabila aleatoare X s-a definit prin relaţia:

n − j, dacă e ∈ Aj
X(e) =
0, ı̂n rest

pentru j = 1, n.
Fie tabelul  
x 1 x2 . . . x n
X: (2.3)
p1 p2 . . . pn
n
X
cu pi > 0, i = 1, n, pi = 1. Numerele xi se numesc valorile variabilei aleatoare,
i=1
iar pi probabilităţile cu care variabila aleatoare ia aceste valori. Tabelul 2.3 se numeşte
tabloul de repartiţie al variabilei aleatoare X.
Facem convenţia ca ı̂n tabloul de repartiţie să se treacă valorile variabilei aleatoare
distincte, iar valorile luate cu probabilitatea 0 să nu fie trecute.

Observaţia 2.2.1 Fie xk o valoare a variabilei aleatoare X. Valorii xk ı̂i corespunde, ı̂n
general, o mulţime de evenimente elementare. Rezolvând ecuaţia xk = X(e) ı̂n raport
cu e obţinem e = X −1 (xk ), ı̂n general, o funcţie multivocă, deci la un xk pot corespunde
mai multe valori ale lui e. Reuniunea acestora formează un eveniment Ak al câmpului
(k 6 n). Deoarece valorile xk sunt diferite, evenimentele Ak sunt incompatibile două câte
două şi formează un sistem complet de evenimente. Observăm că

pk = P (Ak ) = P ({e ∈ E | X(e) = xk })

şi
n
X n
X n
[
pk = P (Ak ) = P ( Ak ) = P (E) = 1.
k=1 k=1 k=1

Deci dată o variabilă aleatoare, putem să-i ataşam un sistem complet de evenimente.
Reciproca afirmaţiei este tocmai Exemplul 2.2.2.

Exemplul 2.2.2 Considerăm experienţa care constă ı̂n aruncarea unui zar omogen. Fie
variabila aleatoare X care ia ca valori numărul de puncte apărute pe faţa zarului. Să se
scrie tabloul de repartiţie al acestei variabile aleatoare.

Mulţimea evenimentelor elementare este {1, 2, 3, 4, 5, 6} şi ea coincide, ı̂n acest caz, cu E
!
1 2 3 4 5 6
X: 1 1 1 1 1 1 .
6 6 6 6 6 6
Dacă considerăm evenimentele A şi B legate de aceeaşi experienţă şi anume A evenimentul
care constă ı̂n obţinerea unui număr par de puncte, iar B evenimentul care constă ı̂n
48 Variabile aleatoare discrete

obţinerea un număr impar de puncte şi definim variabila aleatoare Y care ia valoarea
0 dacă am obţinut un număr par de puncte şi 1 dacă am obţinut un număr impar de
puncte, atunci A şi B formează un sistem complet de evenimente şi putem defini variabila
aleatoare Y astfel: !
0 1
Y : 1 1 .
2 2

Exemplul 2.2.3 Considerăm o experienţă care constă ı̂n extragerea a trei bile, câte una
din fiecare din urnele U1 , U2 , U3 ce conţin respectiv 2 bile albe şi 3 negre, 3 bile albe şi 5
negre, 8 bile albe şi 2 negre. Definim variabila aleatoare X care ia ca valori numărul de
de bile albe obţinute la o extragere. Se cere tabloul de repariţie a lui X.

Notăm cu Ai şi Āi evenimentul de a extrage o bilă albă, respectiv neagră din urna
Ui , i = 1, 3. Variabila aleatoare X poate lua valorile 0, 1, 2, 3 după cum s-au extras respec-
tiv 0, 1, 2, 3 bile albe. Observăm că evenimentele Ai sunt independente şi incompatibile
două câte două. Atunci putem calcula
3
\ 3
Y
P ({X = 0}) = P ( Āi ) = P (Āi ) = 0, 075,
i=1 i=1

P ({X = 1}) = P ((A1 ∩ Ā2 ∩ Ā3 ) ∪ (Ā1 ∩ A2 ∩ Ā3 ) ∪ (Ā1 ∩ Ā2 ∩ A3 )) =


79
= P (A1 )P (Ā2 )P (Ā3 ) + P (Ā1 )P (A2 )P (Ā2 ) + P (Ā1 )P (Ā2 )P (A3 ) = = 0, 395,
200
P ({X = 2}) = P ((A1 ∩ A2 ∩ Ā3 ) ∪ (A1 ∩ Ā2 ∩ A3 ) ∪ (Ā1 ∩ A2 ∩ A3 )) =
41
= P (A1 )P (A2 )P (Ā3 ) + P (A1 )P (Ā2 )P (A2 ) + P (Ā1 )P (A2 )P (A3 ) = = 0, 41,
100
3
P ({X = 3}) = P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ) = = 0, 12,
25
Tabloul de repartiţie este
 
0 1 2 3
X: .
0, 075 0, 395 0, 41 0, 12

De cele mai multe ori ı̂n calcule este suficient să cunoaştem valorile pe care le ia o
variabilă aleatoare şi probabilităţile respective. Dar, ı̂n general, cunoaşterea acestor date
nu este suficientă pentru determinarea completă a variabilei aleatoare, aşa cum se va
vedea ı̂n exemplul următor.

Exemplul 2.2.4 Considerăm experienţa care constă ı̂n aruncarea unui zar. Legat de
aceasta ne imaginăm un joc: celui care aruncă zarul i se acordă 1 punct dacă apare una
din feţele cu 1 sau 2 puncte, 2 puncte dacă apare una din feţele cu 3 sau 4 puncte, 3
puncte dacă apare una din feţele cu 5 sau 6 puncte. Dacă notăm cu X variabila aleatoare
Variabile aleatoare discrete 49

care ia ca valori numărul de puncte obţinute de jucător la o aruncare a zarului, obţinem


o variabilă aleatoare având repartiţia:
!
1 2 3
X: 1 1 1 .
3 3 3
Se consideră alt joc ı̂n care se acordă 1 punct dacă apare una din feţele cu 1 sau 6 puncte,
2 puncte dacă apare una din feţele cu 2 sau 5 puncte, 3 puncte dacă apare una din feţele
cu 3 sau 4 puncte. Obţinem analog o variabilă aleatoare Y cu repartiţia
!
1 2 3
Y : 1 1 1 .
3 3 3
Variabilele aleatoare discrete simple X şi Y definite ı̂n acest exemplu nu sunt egale, dar au
acelaşi tablou de repartiţie. Într-adevăr, X(6) = 3 şi Y (6) = 1. Experienţa care constă
ı̂n aruncarea zarului generează un câmp de probabilitate. Pe mulţimea evenimentelor
elementare ale lui E, X şi Y sunt definite astfel:

X(1) = 1, X(2) = 1, X(3) = 2, X(4) = 2, X(5) = 3, X(6) = 3;

Y (1) = 1, Y (2) = 2, Y (3) = 3, Y (4) = 3, Y (5) = 2, Y (6) = 1.


Să determinăm sistemul complet de evenimente generat de fiecare din cele două vari-
abile aleatoare discrete simple. Variabila aleatoare discretă simplă X determină

A1 = {1, 2}, A2 = {3, 4}, A3 = {5, 6},

iar variabila aleatoare discretă simplă Y determină

B1 = {1, 6}, B2 = {2, 5}, B3 = {3, 4}.

Rezultă că cele două sisteme complete de evenimente sunt diferite şi deci numai aparent
variabilele aleatoare discrete simple coincid.
Orice variabilă aleatoare simplă dată prin tabloul său de repartiţie se poate reprezenta
grafic prin poligonul său de repartiţie: pe axa absciselor se trec valorile variabilei aleatoare,
iar pe axa ordonatelor probabilităţile.
Pentru o variabilă aleatoare discretă simplă se poate introduce funcţia de repartiţie
care este o funcţie scară dată de relaţa:


 0, dacă x 6 x1 ,



 p 1 , dacă x1 < x 6 x2 ,

p1 + p2 , dacă x2 < x 6 x3 ,
F (x) =

 . . .



 p + . . . + pn−1 , dacă xn−1 < x 6 xn ,
 1
1, dacă xn < x.

În această definiţie am presupus, pentru simplitate, x1 < x2 < . . . < xn . Graficul acestei
funcţii este prezentat ı̂n Figura 2.1.
50 Variabile aleatoare discrete

Vom insista mai mult asupra proprietăţilor funcţiei de repartiţie ı̂n Capitolul 3. Să
studiem F ı̂n unul din punctele de discontinuitate, fie x = x2 . Pentru δ ∈ IR+ oricât de
mic, avem
F (x2 + δ) = P ({X < x2 + δ}) = p1 + p2
astfel ı̂ncât lim F (x) = p1 + p2 . Mai mult
x&x2

F (x2 ) = P ({X < x2 }) = p1

şi
F (x2 − δ) = P ({X < x2 − δ}) = p1 .
Rezultă că funcţia de repartiţie este continuă la stânga. Funcţia de repartiţie poate fi
scrisă restrâns cu ajutorul funcţiei unitate (treapta unitate)

0, dacă x 6 0,
u(x) = .
1, dacă x > 0,

Functia generalizată delta δ(t) (distribuţia Dirac) este definită cu ajutorul funcţiei unitate
astfel: Z x
u(x) = δ(t) dt

şi deci
n
X
F (x) = p1 u(x) + p2 u(x − x1 ) + . . . + pn u(x − xn ) = pk u(x − xk ),
k=1

unde pk = P ({X < xk }). Putem introduce şi ı̂n cazul discret (pentru cazul continuu se
poate consulta Capitolul 3) funcţia densitate de probabilitate ţinând seama de legătura
dintre funcţia unitate şi distribuţia Dirac. Astfel, ţinând seama de faptul că (vezi Capitolul
3.2, Formula (3.9)): Z x
F (x) = f (t) dt
−∞

obţinem densitatea de probabilitate pentru variabile aleatoare discrete


n
X
f (x) = pk δ(x − xk ).
k=1

Această densitate de probabilitate este o funcţie generalizată (o distribuţie).

Operaţii cu variabile aleatoare discrete simple.


Deoarece variabila aleatoare discretă simplă este o funcţie definită pe mulţimea eveni-
mentelor elementare cu valori reale, putem vorbi de suma şi produsul a două variabile
aleatoare discrete simple ca şi la funcţii. Astfel, dacă e este un eveniment elementar şi X
şi Y sunt definite pe aceeaşi mulţime de evenimente elementare, avem

(X + Y )(e) = X(e) + Y (e),


Variabile aleatoare discrete 51

(XY )(e) = X(e)Y (e).


X
Dacă Y (e) 6= 0 oricare ar fi evenimentul e, câtul este o nouă variabilă aleatoare definită
Y
prin relaţia
X X(e)
( )(e) = .
Y Y (e)
Produsul unei variabile aleatoare X cu o constantă reală c este o nouă variabilă aleatoare
cX definită prin relaţia
(cX)(e) = cX(e).
Acest produs poate fi interpretat şi ca produsul lui X cu variabila aleatoare constantă
identic egală cu c (Y (e) = c, ∀e ∈ E). Dacă X(e) > 0, ∀e ∈ E, iar α ∈ IR fixat, definim
X α ca o nouă variabilă aleatoare definită prin

(X α (e) = (X(e))α .

În cazul ı̂n care α ∈ IN se poate renunţa la condiţia X(e) > 0, ∀e ∈ E, variabila aleatoare
poate fi interpretată ca produsul lui X cu el ı̂nsuşi. Fie variabilele aleatoare X şi Y având
tabelele de repartiţie  
x1 x2 . . . x m
X: ,
p1 p2 . . . pm
 
y1 y2 . . . yn
Y : .
q1 q2 . . . qn
Fie A1 , A2 , . . . , Am respectiv B1 , B2 , . . . , Bn sistemul complet de evenimente generat de
variabila aleatoare X, respectiv Y . Avem, evident

P (Ai ) = pi , i = 1, m,

P (Bj ) = qj , j = 1, n.
Variabila aleatoare X + Y ia valoarea xi + yj pe submulţimea Ai ∩ Bj , dacă această
intersecţie este nevidă. Dacă Ai ∩ Bj = ∅, variabila aleatoare X + Y ia valoarea xi + yj cu
probabilitatea zero şi deci aceasta nu apare ı̂n tabel. Dacă notăm P (Ai ∩ Bj ) = pij , i =
1, m, j = 1, n atunci tabelul de repartiţie al variabilei aleatoare X + Y va fi
 
x1 + y1 x1 + y2 . . . x1 + yn . . . xm + yn
X +Y : .
p11 p12 ... p1n ... pmn

Pentru produs vom avea


 
x1 y1 x1 y2 . . . x1 yn . . . xm yn
XY : .
p11 p12 . . . p1n . . . pmn

În ambele cazuri tabelul de repartiţie are cel mult mn coloane.


52 Variabile aleatoare discrete

Observaţia 2.2.2 În cazul particular Y = a = const.,deoarece


pij = P ({X = xi , Y = a}) = P ({(X = xi ) ∩ E}) = P ({X = xi }) = pi
avem  
a + x1 a + x2 . . . a + xm
a+X : ,
p1 p2 ... pm
şi la fel
 
ax1 ax2 . . . axm
aX : .
p1 p2 . . . pm
Observaţia 2.2.3 Definiţia sumei de variabile aleatoare discrete simple se poate extinde
la un număr finit de variabile aleatoare simple. De exemplu, dacă
     
xi yj zk
X: , i = 1, m, Y : , j = 1, n, Z : , k = 1, l,
pi qj rk
atunci  
xi + y j + z k
X +Y +Z : , i = 1, m, j = 1, n, k = 1, l.
pijk
Exemplul 2.2.5 Probabilitatea extragerii unei bile albe dintr-o urnă este p. Din această
urnă se fac două extrageri, punându-se bila ı̂napoi ı̂n urnă după extragere. Se consideră
variabilele aleatoare X1 şi X2 , prima reprezentând numărul de bile albe obţinute la prima
extragere şi a doua numărul de bile albe de la a doua extragere. Să se scrie tabloul de
repartiţie al variabilelor aleatoare discrete simple X1 , X2 , X1 + X2 , X1 X2 .
Dacă    
0 1 0 1
X1 : , X2 : , q = 1 − p,
q p q p
atunci  
0 1 2
X1 + X2 : ,
q 2pq p2
2

deoarece
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = P ({X1 = 0})P ({X2 = 0}) = q 2 ,
P ({X1 + X2 = 1}) = P ({X1 = 1, X2 = 0} ∪ {X1 = 0, X2 = 1}) = 2pq,
P ({X1 + X2 = 2}) = P ({X1 = 1, X2 = 1}) = P ({X1 = 1})P ({X2 = 2}) = p2 ,
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = q 2 .
La fel,  
0 1
X1 X2 : ,
2pq + q p2
2

deoarece
P ({X1 X2 = 0}) = P ({X1 = 0, X2 = 0} ∪ {X1 = 1, X2 = 0) ∪ {X1 = 0, X2 = 1})
= 2pq + q 2 ,
P ({X1 X2 = 1}) = P ({X1 = 1, X2 = 1}) = p2 .
Variabile aleatoare discrete 53

Propoziţia 2.2.1 Fiind date variabilele aleatoare


   
xi yj
X: , i = 1, m; Y : , j = 1, n,
pi qj

iar pij probabilităţile definite de suma şi produsul celor două variabile aleatoare. Au loc
relaţiile:
n
X m
X
pi = pij , qj = pij .
j=1 i=1

Demonstraţie. Efectuând experienţa căreia ı̂i sunt asociate variabilele aleatoare, Y ia ı̂n
mod sigur una din valorile y1 , y2 , . . . , yn . Dacă X ia valoarea xi , rezultă că evenimentul
{X = xi } se realizează ı̂mpreună cu unul din evenimentele {Y = y1 }, . . . , {Y = yn }. Deci

{X = xi } = {X = xi } ∩ ({Y = y1 } ∪ {Y = y2 } ∪ . . . {Y = yn }) =

= ({X = xi } ∩ {Y = y1 }) ∪ ({X = xi } ∩ {Y = y2 }) ∪ . . . ∪ ({X = xi } ∩ {Y = yn }).


De aici rezultă că
n
X n
X
pi = P ({X = xi }) = P ({X = xi , Y = yj }) = pij .
j=1 j=1

La fel se demonstrează cea de-a doua relaţie.

Observaţia 2.2.4 Dacă considerăm şi variabila aleatoare discretă simplă


 
zk
Z: , k = 1, l,
rk

atunci pentru probabilităţile sumei (produsului) celor trei variabile aleatoare discrete sim-
ple au loc relaţiile
l
X m
X n
X
pijk = pij· ; pijk = p·jk ; = pi·k ;
k=1 i=1 j=1

Independenţa variabilelor aleatoare discrete simple.

Definiţia 2.2.2 Două variabile aleatoare se numesc independente dacă probabilitatea ca


una din variabile să ia o valoare nu depinde de valoarea luată de cea de a doua variabilă
aleatoare.

Observaţia 2.2.5 Dacă X şi Y sunt astfel de variabile aleatoare atunci două evenimente
de forma {X = xi } şi {Y = yj }, i = 1, m, j = 1, n, sunt independente.

În general, putem da definiţia:


54 Variabile aleatoare discrete

Definiţia 2.2.3 Variabilele aleatoare discrete simple X, Y, Z, . . . sunt independente da-


că evenimentele {X = xi }, {Y = yj }, {Z = zk }, . . . i = 1, m, j = 1, n, k = 1, l sunt
independente ı̂n totalitatea lor.

Observaţia 2.2.6 Dacă variabilele aleatoare


   
xi yj
X: , i = 1, m, Y : , j = 1, n,
pi qj

sunt independente, atunci

pij = P ({X = xi , Y = yj }) = P ({X = xi })P ({Y = yj }) = pi qj .

La fel pentru trei variabile aleatoare discrete simple. În cazul acesta
 
xi + y j
X +Y : , i = 1, m, j = 1, n;
p i qj
 
xi y j
XY : , i = 1, m, j = 1, n.
pi qj

Exemplul 2.2.6 Suma a două variabile aleatoare discrete simple independente X, Y,


Z = X + Y , poate fi obţinută astfel:

P ({Z = k}) = P ({X + Y = k}) =


X X
= P ({X = i, Y = k − i}) = P ({X = i})P ({Y = k − i}),
i i

sumarea referindu-se la toate valorile ı̂ntregi ale lui X, mai mici decât k. Dacă notăm cu
p(i) = P ({X = i}), q(j) = P ({Y = j}), r(k) = P ({Z = k}), obţinem
k
X k
X
r(k) = p(i)q(k − i) = p(k − j)q(j),
i=0 j=0

acestea reprezentând produsul de convoluţie a lui p şi q.

Propoziţia 2.2.2 Variabilele aleatoare simple X şi Y sunt independente dacă şi numai
dacă evenimentele {x0 < X < x} şi {y 0 < Y < y} sunt independente, oricare ar fi
x, x0 , y, y 0 ∈ IR.

Demonstraţie.Presupunem că X şi Y sunt independente. Deoarece


[
{x0 < X < x, y 0 < Y < y} = {X = xi , Y = yj }
x0 <xi <x, y 0 <yj <y

rezultă, datorită independenţei,


[
P ({x0 < X < x, y 0 < yj < y}) = P ( {X = xi , Y = yj }) =
x0 <xi <x, y 0 <yj <y
Variabile aleatoare discrete 55
X X X
= P ({X = xi , Y = yj }) = P ({X = xi }) P ({Y = yj }) =
x0 <xi <x;y 0 <yj <y x0 <xi <x y 0 <yj <y

[ [
= P( {X = xi })P ( {Y = yj }) = P ({x0 < X < x})P ({y 0 < Y < y}).
x0 <xi <x y 0 <yj <y

Reciproc, presupunem că evenimentele {x0 < X < x} şi {y 0 < Y < y} sunt independente,
oricare ar fi x, x0 , y, y 0 ∈ IR. Atunci

{X = xi , Y = yj } = {xi−1 < X < xi+1 , yj−1 < Y < yj+1 }, i = 1, m, j = 1, n,

unde x0 = y0 = −∞, xn = yn = ∞. Rezultă că

P ({X = xi , Y = yj }) = P ({xi−1 < X < xi+1 , yj−1 < Y < yj+1 }) =

= P ({xi−1 < X < xi+1 })P ({yj−1 < Y < yj+1 }) = P ({X = xi })P ({Y = yj }).

Caracteristici numerice pentru variabile aleatoare discrete simple.

Definiţia 2.2.4 Fie variabila aleatoare discretă simplă


  m
X
x1 x2 . . . x m
X: , pi > 0, i = 1, m, pi = 1. (2.4)
p1 p2 . . . pm
i=1

Vom numi media variabilei aleatoare discrete simple X numărul


m
X
M [X] = x1 p1 + x2 p2 + . . . + xm pm = xi p i .
i=1

Denumirea de medie este ı̂ndreptăţită dacă ţinem seama de sensul ei practic. Presupunem
că am repetat de N ori o experienţă care ne-a condus la variabila aleatoare X. Dacă
valoarea x1 este luată de n1 ori, valoarea x2 de n2 ori,. . ., valoarea xm de nm ori, unde
n1 + n2 + . . . + nm = N , atunci suma valorilor luate de variabila aleatoare X este n1 x1 +
n2 x2 + . . . + nm xm , iar media aritmetică a valorilor luate de X va fi

n 1 x1 + n 2 x2 + . . . + n m xm n1 n2 nm
= x1 + x2 + . . . + xm .
N N N N
n1
Dar reprezintă raportul dintre numărul cazurilor ı̂n care s-a luat valoarea x1 şi numărul
N
n2 nm
total de experimentări, adică p1 . La fel = p2 , . . . , = pm .
N N
Media aritmetică a valorilor luate de X poate fi aproximată cu p1 x1 +p2 x2 +. . .+pm xm ,
adică media lui X. Media lui X ne arată la ce valoare putem să ne aşteptăm pentru media
aritmetică a unui mare număr de valori ale lui X, obţinute ı̂n urma repetării experienţei
date.
56 Variabile aleatoare discrete

Exemplul 2.2.7 Variabilele aleatoare discrete simple din Exemplul 2.2.5, X1 şi X2 ,
având repartiţiile:  
0 1
X 1 , X2 : ,
q p
au valoarea medie
M [Xi ] = 1p + 0q = p, i = 1, 2,
iar  
0 1 2
X1 + X2 : ,
q 2pq p2
2

are media
M [X1 + X2 ] = 2pq + 2p2 = 2p.

Definiţia 2.2.5 Se numeşte moment iniţial de ordin k, k ∈ IN , al variabilei aleatoare X


media lui X k . Notăm
υk = Mk [X] = M [X k ].

Observaţia 2.2.7 Momentul iniţial de ordin 1 al variabilei alearoare X este chiar media
variabilei aleatoare.

Proprietăţi ale mediei.

1. Valoarea medie a unei constante este egală cu constanta,


 
c
X: , M [X] = c.
1

2. Dacă X este o variabilă aleatoare simplă şi a ∈ IR o constantă, atunci au loc relaţiile:

M [a + X] = a + M [X], M [aX] = aM [X],

Într-adevăr, deoarece
 
a + x1 a + x2 . . . a + xm
a+X : ,
p1 p2 ... pm
m
X m
X m
X
M [a + X] = (a + xi )pi = a pi + xi pi = a + M [X];
i=1 i=1 i=1
 
ax1 ax2 . . . axm
aX : ,
p1 p2 . . . pm
m
X m
X
M [aX] = (axi )pi = a xi pi = aM [X].
i=1 i=1
Variabile aleatoare discrete 57

3. Valoarea medie a unei variabile aleatoare este cuprinsă ı̂ntre cea mai mică şi cea mai
mare dintre valorile posibile ale variabilei aleatoare. Fie a = min xi şi A = max xi .
i i
m
X m
X 

M [X] = xi p i > a pi = a, 


i=1 i=1
m
X Xm ⇔ a < M [X] < A.

M [X] = xi p i < A pi = A, 


i=1 i=1

4. Valoarea medie a unei sume finite de variabile aleatoare este egală cu suma valorilor
medii ale variabilelor aleatoare respective. Fie
   
x1 x2 . . . x m y1 y2 . . . yn
X: , Y : ,
p1 p2 . . . pm q1 q2 . . . q n
 
x1 + y1 x1 + y2 . . . xm + yn
X +Y : .
p11 p12 ... pmn
Atunci m X n
X
M [X + Y ] = (xi + yj )pij =
i=1 j=1
m
X n
X n
X m
X m
X n
X
= xi ( pij ) + yj ( pij ) = xi pi + yj qj = M [X] + M [Y ].
i=1 j=1 j=1 i=1 i=1 j=1

Demonstraţia pentru suma unui număr finit de variabile aleatoare se face prin
inducţie.
5. Valoarea medie a unui produs de variabile aleatoare independente este egală cu
produsul mediilor variabilelor considerate.
   
x1 x2 . . . x m y1 y2 . . . yn
X: , Y : ,
p1 p2 . . . pm q1 q2 . . . q n
 
x1 y1 x1 y2 . . . xm yn
XY : ,
p11 p12 . . . pmn
m X
X n
M [XY ] = xi yj pij .
i=1 j=1

Dacă variabilele sunt independente, se produc simplificări importante deoarece putem


scrie
pij = pi qj
şi atunci
n
X n
X n
X
M [XY ] = x1 yj p1 qj + x2 yj p2 qj + . . . + xm yj pm qj =
j=1 j=1 j=1
m
X Xn
=( xi pi )( yj qj ) = M [X]M [Y ].
i=1 j=1
58 Variabile aleatoare discrete

6. Oricare ar fi variabila aleatoare X, are loc relaţia


p
M [X 2 ] > |M [X]|.

Considerăm variabila aleatoare X având tabloul (2.4) şi fie Y = (X + a)2 , a ∈ IR.
Deoarece valorile lui Y sunt pozitive, rezultă că M [Y ] > 0 şi deci
m
X m
X m
X
2
M [Y ] = (xi + a) pi = xi pi + 2a xi pi + a2 =
i=1 i=1 i=1

= M [X 2 ] + 2aM [X] + a2 > 0 ∀a ∈ IR.


Rezultă ∆ 6 0 şi cum
∆ = (M [X])2 − M [X 2 ] 6 0
obţinem inegalitatea dorită.
7. Inegalitatea lui Schwarz. Fie x şi Y două variabile aleatoare discrete simple. Are loc
inegalitatea p
|M [XY ]| 6 M [X 2 ]M [Y 2 ].
Demonstraţia poate fi găsită ı̂n Capitolul 3.4, Formula (3.42).

Definiţia 2.2.6 Fie o variabilă aleatoare X şi o constantă a ∈ IR. Numim abaterea de
la constanta a a variabilei aleatoare X variabila X − a.

Definiţia 2.2.7 Se numeşte moment centrat de ordin k raportat la constanta a a vari-


abilei aleatoare X media variabilei (X − a)k .

Observaţia 2.2.8 Pentru a = 0 obţinem momentul iniţial de ordin k.

Observaţia 2.2.9 Pentru a = M [X] = m obţinem momentul centrat de ordin k al


variabilei aleatoare X.

Definiţia 2.2.8 Variabila aleatoare X − M [X] se numeşte abaterea de la medie a vari-


abilei aleatoare X.

Propoziţia 2.2.3 Valoarea medie a abaterii oricărei variabile aleatoare este nulă.

M [X − M [X]] = M [X] − M [M [X]] = M [X] − M [X] = 0.

De multe ori la o variabilă aleatoare ne interesează cât de mult se abat valorile variabilei
de la valoarea medie. Trebuie să stabilim un indicator numeric al ı̂mprăştierii valorilor
variabilei aleatoare ı̂n jurul valorii medii. Valoarea medie a abaterii de la medie nu poate
caracteriza această ı̂mprăştiere deoarece este nulă pentru orice variabilă aleatoare. Aba-
terile diferitelor valori, având semne diferite, se compensează. Este firesc să caracterizăm
ı̂mprăştierea variabilei aleatoare X prin valoarea medie a abaterilor absolute | X −M [X] |
pe care o numim abatere medie. Dacă X are tabloul de repartiţie
 
x1 x 2 . . . x n
X: ,
p1 p2 . . . p n
Variabile aleatoare discrete 59

atunci repartiţia abaterii absolute este


 
| x1 − m | | x2 − m | . . . | xn − m |
,
p1 p2 ... pn

unde m = M [X], iar abaterea medie este

p1 | x1 − m | +p2 | x2 − m | + . . . + pn | xn − m | .

Se observă că semnul expresiilor xi − m nu influenţează valoarea abaterii medii. Folosirea


abaterii medii este foarte incomodă ı̂n calcule. Foarte comodă este ı̂n schimb folosirea
expresiei
M [(X − m)2 ].

Definiţia 2.2.9 Se numeşte dispersie a variabilei aleatoare X momentul centrat de or-


dinul al doilea al variabilei, notat

σ 2 = D2 [X] = M [(X − m)2 ], m = M [X].

Observaţia 2.2.10 Demonstrăm o formulă utilă ı̂n aplicaţii şi anume că dispersia unei
variabile aleatoare este egală cu media pătratului variabilei aleatoare minus pătratul me-
diei, adică
D2 [X] = M [X 2 ] − (M [X])2 .
Într-adevăr,
n
X
2
D [X] = pi (xi − m)2 =
i=1
n
X n
X
= pi xi − 2m pi xi + m2 = M [X 2 ] − 2m2 + m2 = M [X 2 ] − (M [X])2 .
i=1 i=1

Arătăm că dispersia unei variabile aleatoare X este, ı̂ntr-un anume sens, cea mai bună
valoare care caracterizează ı̂mprăştierea valorilor x1 , x2 , . . . , xn sau, cu alte cuvinte, M [X]
este punctul cel mai potrivit faţă de care trebuie să măsurăm devierile acestor valori. Acest
lucru rezultă din următoarea propoziţie.

Propoziţia 2.2.4 Dacă X este o variabilă aleatoare care ia valorile x1 , x2 , . . . , xn cu


probabilităţile p1 , p2 , . . . , pn , iar m este media, atunci
n
X n
X
2 2
D [X] = pi (xi − m) 6 pi (xi − x)2 , ∀x ∈ IR.
i=1 i=1

Demonstraţie. Putem scrie xi − x = (xi − m) + (m − x), i = 1, n.


n
X n
X
2
pi (xi − x) = pi [(xi − m) + (m − x)]2 =
i=1 i=1
60 Variabile aleatoare discrete

n
X n
X
2
= pi (xi − m) + 2(m − x) pi (xi − m) + (m − x)2 =
i=1 i=1
n
X
= pi (xi − m)2 + 2(m − x)(m − m) + (m − x)2 =
i=1

= D2 [X] + (m − x)2 6 D2 [X].

Proprietăţi ale dispersiei.

1. Dispersia unei constante este nulă deoarece, ţinând seama de proprietăţile mediei,

D2 [c] = M [c2 ] − (M [c])2 = 0.

2. Două variabile aleatoare care diferă printr-o constantă au dispersiile egale.


 
x1 x2 . . . x n
X: ,
p1 p2 . . . pn
 
a + x1 a + x2 . . . a + xn
Y =a+X : ,
p1 p2 ... pn
M [Y ] = M [X + a] = M [X] + a,
n
X
2
D [Y ] = (xi + a − M [Y ])2 pi =
i=1
n
X n
X
2
= pi (xi + a − M [X] − a) = pi (xi − M [X])2 = D2 [X].
i=1 i=1

3. D2 [aX] = a2 D2 [X] deoarece


n
X n
X
D2 [aX] = pi (axi − am)2 = pi a2 (xi − m)2 =
i=1 i=1

n
X
2
=a pi (xi − m)2 = a2 D2 [X].
i=1

4. Dacă variabilele aleatoare X1 , X2 , . . . , Xk sunt independente, atunci dispersia sumei


este egală cu suma dispersiilor.

D2 [X1 + X2 + . . . + Xk ] = D2 [X1 ] + D2 [X2 ] + . . . + D2 [Xk ].

Într-adevăr, fie
Y = X1 + X2 + . . . + Xk
Variabile aleatoare discrete 61

atunci
Xk Xk
2 2 22
D [Y ] = M [Y ] − (M [Y ]) = M [( Xi ) ] − (M [ Xi ])2 =
i=1 i=1

= M [X12 + X22 + ... + Xk2 + 2X1 X2 + 2X1 X3 + . . . + 2Xk−1 Xk ]−


−(M [X1 ] + M [X2 ] + . . . + M [Xk ])2 = M [X12 ] + M [X22 ] + . . . + M [Xk2 ]+
+2M [X1 X2 ] + 2M [X1 X3 ] + . . . + 2M [Xk−1 Xk ] − (M [X1 ])2 −
−(M [X2 ])2 − . . . − (M [Xk ])2 − 2M [X1 ]M [X2 ] − 2M [X1 ]M [X3 ] − . . . −
−2M [Xk−1 ]M [Xk ] = M [X12 ] − (M [X1 ])2 + M [X22 ] − (M [X2 ])2 + . . . +
+M [Xk2 ] − (M [Xk ])2 = D2 [X1 ] + D2 [X2 ] + . . . + D2 [Xk ],
folosind Proprietatea 5 a mediei.

Observaţia 2.2.11 Proprietatea rămâne adevărată ı̂n condiţii mai puţin restrictive. În
cursul demonstraţiei s-a folosit faptul că variabilele aleatoare Xi , i = 1, k sunt indepen-
dente două câte două şi nu ı̂n totalitatea lor.

Mai general, combinând Proprietăţile 3 şi 4, avem

Xk k
X
2
D [ ai Xi ] = a2 D2 [Xi ]
i=1 i=1

În particular,
D2 [X − Y ] = D2 [X] + D2 [Y ].
De obicei, gradul de ı̂mprăştiere a valorilor unei variabile aleatoare X se exprimă nu prin
dispersie, ci prin abaterea medie pătratică, notată D[X] şi definită prin relaţia
p
σ = D[X] = D2 [X].

Aceasta are avantajul că se exprimă prin aceleaşi unităţi de măsură ca şi valorile variabilei
aleatoare X.

Proprietăţi ale abaterii medii pătratice.


1. D[c] = 0, dacă c = const., c ∈ IR.

2. D[a + X] = D[X].

3. D[aX] =| a | D[X].
Proprietăţile de mai sus rezultă din proprietăţile dispersiei.
Teorema 2.2.1 (Inegalitatea lui Cebâşev). Fie X o variabilă aleatoare care admite medie
şi dispersie finite. Atunci, oricare ar fi  > 0, are loc inegalitatea
D2 [X]
P ({| X − m |< }) > 1 − , m = M [X]. (2.5)
2
62 Variabile aleatoare discrete

Demonstraţie. Facem observaţia că această inegalitate dă o margine inferioară pentru
probabilitatea ca abaterea absolută a unei variabile aleatoare cu dispersia cunoscută să
fie mai mică decât un număr dat.
Pentru demonstraţie considerăm repartiţia variabilei aleatoare X,
 
x1 x 2 . . . x n
X: ,
p1 p2 . . . p n

ı̂n care presupunem că am scris valorile ı̂n ordine crescătoare, şi deci aşa vor fi scrise şi
valorile | xi − m |, i = 1, n, adică

|x1 − m| 6 |x2 − m| 6 . . . 6 |xn − m|.

Dacă luăm un  > 0 oarecare, unele din valorile |xi − m|, i = 1, n, vor fi mai mari sau
egale cu , altele mai mici. Există deci un l astfel ı̂ncât

|x1 − m| 6 |x2 − m| 6 . . . 6 |xl − m| <  6 |xl+1 − m| 6 . . . 6 |xn − m|.

Aceste inegalităţi se mai pot scrie

(x1 − m)2 6 (x2 − m)2 6 . . . 6 (xl − m)2 < 2 6 (xl+1 − m)2 6 . . . 6 (xn − m)2 .

Variabila aleatoare |X − m| are repartiţia


 
|x1 − m| |x2 − m| . . . |xl − m| |xl+1 − m| . . . |xn − m|
p1 p2 ... pl pl+1 ... pn

şi ia valoarea |xi −m| atunci când X ia valoarea xi . Inegalitatea |X −m| <  este verificată
atunci când |X − m| ia una din valorile |x1 − m|, |x2 − m|, . . . , |xl − m| adică atunci şi
numai atunci când X ia una din valorile x1 , x2 , . . . , xl . Putem scrie deci evenimentul
(|X − m| < ) ca o reuniune finită de evenimente incompatibile

{|X − m| < } = {X = x1 } ∪ {X = x2 } ∪ . . . ∪ {X = xl }.

de unde
l
X n
X
P ({|X − m| < }) = pi = 1 − pi .
i=1 i=l+1

Scriem acum dispersia variabilei aleatoare X

σ 2 = (x1 − m)2 p1 + . . . + (xl − m)2 pl + (xl+1 − m)2 pl+1 + . . . + (xn − m)2 pn .

Vom transforma această egalitate ı̂n inegalitate prin micşorarea membrului drept.
Această minorare o realizăm astfel: valorile (xi − m)2 care sunt mai mici ca 2 le ı̂nlocuim
cu 0, iar cele care sunt mai mari sau egale cu 2 le ı̂nlocuim cu 2 . Atunci
n
X
σ 2 > 0p1 + . . . + 0pl + 2 pl+1 + . . . + 2 pn = 2 pi
i=l+1
Variabile aleatoare discrete 63

şi deci
Xn
σ2
> pi ,
2 i=l+1

Xn
σ2
1− 2 61− pi = P ({|X − m|} < ),
 i=l+1

care este echivalentă cu Inegalitatea (2.5).


Dacă luăm  = kσ această inegalitate se scrie
1
P ({|X − m| < kσ}) > 1 −
k2
1
sau P ({m − kσ < X < m + kσ}) > 1 − . De exemplu, pentru k = 3 obţinem
k2
1 8
P ({m − 3σ < X < m + 3σ}) > 1 − = .
9 9
8
Deci, cu o probabilitate cuprinsă ı̂ntre şi 1, orice variabilă ia valori cuprinse ı̂n intervalul
9
(m − 3σ, m + 3σ).

Exemplul 2.2.8 Fie  


0, 2 0, 3 0, 4 0, 5
X: .
0, 1 0, 2 0, 3 0, 4
Să se estimeze probabilitatea P ({|X − m| < 0, 2}).
Utilizăm inegalitatea lui Cebâşev cu

D2 [X]
P ({|X − m| < 0, 2}) > 1 − .
0, 22

M [X] = 0, 4, M [x2 ] = 0, D2 [X] = 0, 01. Înlocuim mai sus şi obţinem:

P ({|X − 0, 4| < 0, 2}) > 0, 75.

2.3 Exemple de variabile aleatoare discrete simple


1. Repartiţia Poisson.
Fie X o variabilă aleatoare care ia ca valori numărul de bile albe extrase din n urne
Ui , i = 1, n, care conţine fiecare, ı̂n proporţii diferite, bile albe şi negre. Probabilitatea de
a extrage o bilă albă din urna Ui este pi , iar o bilă neagră este qi = 1 − pi . Fie Xi , i = 1, n,
variabilele aleatoare care iau valoarea 1 dacă din urna Ui se extrage o bilă albă şi 0 dacă
din aceeaşi urnă se extrage o bilă neagră.
 
0 1
Xi : , i = 1, n,
qi pi
64 Variabile aleatoare discrete

M [Xi ] = pi .
Cu notaţiile introduse, putem scrie
n
X
X = X1 + X2 + . . . + Xn = Xi ,
i=1

Xn n
X n
X
M [X] = M [ Xi ] = M [Xi ] = pi ,
i=1 i=1 i=1

Xn n
X
2 2
D [X] = D [ Xi ] = D2 [Xi ],
i=1 i=1

deoarece variabilele aleatoare Xi , i = 1, n, sunt independente. Dar

D2 [Xi ] = M [Xi2 ] − (M [Xi ])2 .

Deoarece  
0 1
Xi2 : ,
qi pi
avem
M [Xi2 ] = pi ,
deci n
X
2
D [Xi ] = pi − p2i = pi qi şi D [X] = 2
p i qi .
i=1

2. Repartiţia Bernoulli.
Este de fapt repartiţia Poisson ı̂n care structurile urnelor Ui , i = 1, n, sunt identice,
adică p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q. Variabila aleatoare corespunzătoare
este  
0 1 2 ... k ... n
X: .
Cn0 p0 q n Cn1 p1 q n−1 Cn2 p2 q n−2 . . . Cnk pk q n−k . . . Cnn pn q 0
Scriem, ı̂n acest caz, X : Bi(n, p). Particularizând schema lui Poisson, obţinem

M [X] = np, D2 [X] = npq.

De fapt variabila aleatoare binomială descrie o experienţă ı̂n care un eveniment A se


repetă independent de n ori şi interesează de câte ori s-a realizat ı̂n decursul celor n
repetări. Fie X numărul de realizări ale evenimentului A ı̂n cele n efectuări. Deci X va
lua valorile 1, 2, 3, . . . n cu probabilităţile P ({X = k}) = Cnk pk q n−k . Figura 2.2 şi 2.3 sunt
desenate densităţile de probabilitate generalizate pentru variabila aleatoare binomială,
pentru n = 24, (a) p = 0, 2 şi respectiv (b) p = 0.5. i h i

Remarcăm că P ({X = k}) este maxim când kmax = (n + 1)p , unde x notează
partea ı̂ntreagă a lui x. Dacă (n + 1)p este ı̂ntreg, atunci maximum este atins ı̂n kmax şi
kmax − 1.
Variabile aleatoare discrete 65

Variabila aleatoare binomială apare ı̂n aplicaţii ı̂n care sunt două tipuri de situţii:
realizări/nerealizări, bit corect/eronat, aparat bun/defect etc.

3. Repartiţia hipergeometrică.
Fie X variabila aleatoare care ia ca valori numărul de bile albe care se obţin extrăgând
n bile dintr-o urnă care conţine a bile albe şi b bile negre (n 6 a+b). Tabloul de repartiţie
al variabilei aleatoare X este
 
0 1 2 ... k ... min{n, a}
min{n,a} n−min{n,a} 
X :  Ca0 Cbn Ca1 Cbn−1 Ca2 Cbn−2 Cak Cbn−k Ca Cb .
n n n
... n
... n
Ca+b Ca+b Ca+b Ca+b Ca+b

Calculăm caracteristicile numerice ale variabilei aleatoare X. Avem


min{a,n}
X Cak Cbn−k 1 X k n−k 1 X k−1 n−k
M [X] = k n
= n
kC C
a b = = n
aCa−1 Cb =
k=1
Ca+b Ca+b k
C a+b k

a n−1 n!(a + b − n)! (a + b − 1)! an


= n
Ca+b−1 =a = .
Ca+b (a + b)! (n − 1)!(a + b − n)! a+b
Pentru calculul dispersiei utilizăm formula

D2 [X] = M [X 2 ] − (M [X])2 .

Calculăm mai ı̂ntâi


X k n−k X Cak Cbn−k X Cak Cbn−k
2 2 Ca Cb
M [X ] = k n
= k(k − 1) n
+ k n
;
k
Ca+b k
Ca+b k
Ca+b

X Cak Cbn−k 1 X a(a − 1) n−2


k−2 n−k
k(k − 1) n
= n
a(a − 1)Ca−2 Cb = n
Ca+b−2 =
k
Ca+b Ca+b k Ca+b
n!(a + b − n)!(a + b − 2)! a(a − 1)n(n − 1)
= a(a − 1) = .
(a + b)!(n − 2)!(a + b − n)! (a + b)(a + b − 1)
De aici rezultă că
a(a − 1)n(n − 1) an an (a − 1)(n − 1)
M [X 2 ] = + = ( + 1),
(a + b)(a + b − 1) a + b a+b a+b−1

an(an − n + b) a2 n2 abn(a + b − n)
D2 [X] = − 2
= .
(a + b)(a + b − 1) (a + b) (a + b)2 (a + b − 1)
şi ı̂n cazul schemei bilei neı̂ntoarse, variabila aleatoare hipergeometrică poate fi scrisă sub
forma unei sume de variabile aleatoare. Să notăm cu X1 numărul de bile albe obţinute la
prima extragere, cu X2 numărul de bile albe obţinute la a doua extragere etc. Tabloul de
repartiţie al variabilei X1 este  
0 1
X1 : .
q p
66 Variabile aleatoare discrete

Vom arăta că şi celelalte variabile aleatoare Xi , i = 2, n, au aceeaşi repartiţie. Pentru
aceasta calculăm probabilitatea obţinerii unei bile albe la extracţia de ordin k, atunci
când se fac extrageri fără ı̂ntoarcerea bilei. Numărul cazurilor posibile Aka+b . Numărul
cazurilor favorabile coincide cu numărul de moduri ı̂n care pot fi luate k bile astfel ı̂ncât
pe locul k să fie o bilă albă. O bilă albă poate fi luată ı̂n a moduri.
Celelalte k−1 locuri pot fi ocupate ı̂n Ak−1 k−1
a+b−1 moduri, ı̂n total aAa+b−1 cazuri favorabile.
Probabilitatea cătată va fi deci
aAk−1
a+b−1 a(a + b − 1)(a + b − 2) . . . (a + b − k + 1) a
k
= = = p.
Aa+b (a + b)(a + b − 1) . . . (a + b − k + 1) a+b

Rezultă că Xk are repartiţia  


0 1
Xk : .
q p
Din relaţiile
X = X1 + X2 + . . . + Xn
şi
M [X1 ] = M [X2 ] = . . . = M [Xn ] = p,
rezultă
M [X] = np.
Ca şi ı̂n cazul repatiţiei lui Bernoulli, X se scrie ca o sumă de variabile aleatoare având
aceeaşi repartiţie  
0 1
.
q p
Deosebirea este esenţială: ı̂n cazul repartiţiei hipergeometrice, variabilele aleatoare nu
sunt independente. Din această cauză nu putem calcula dispersia variabilei aleatoare X
ca suma dispersiilor variabilelor aleatoare Xi .

Teorema 2.3.1 Dacă X este o variabilă aleatoare repartizată hipergeometric cu parame-


trii a + b, a, n, pentru care
C k C n−k
P ({X = k}) = a nb ,
Ca+b
atunci
Cak Cbn−k
lim = Cnk pk q n−k , (2.6)
a+b→∞ C n
a+b
a
unde p = , q = 1 − p şi deci pentru valori mari ale lui a + b, o variabilă alea-
a+b
toare repartizată hipergeometric poate fi aproximată cu o variabilă repartizată binomială
a
Bi(n, ).
a+b
Demonstraţie.

Cak Cbn−k a(a − 1) . . . (a − k + 1)


n
= ·
Ca+b k!
Variabile aleatoare discrete 67

b(b − 1) . . . (b − n + k − 1) n!
· · =
(n − k)! (a + b) . . . (a + b − n + 1)
n! a(a − 1) . . . (a − k + 1)b(b − 1) . . . (b − n + k − 1)
= =
k!(n − k)! (a + b) . . . (a + b − n + 1)
a a−1 a−k+1 b b−1 b−n+k−1
= Cnk ... ... ·
a+ba+b a+b a+ba+b a+b
(a + b)n 1 k−1
· = Cnk p(p − ) . . . (p − )·
(a + b) . . . (a + b − n + 1) a+b a+b
1 n−k+1 (a + b)n
·q(q − ) . . . (q − ) .
a+b a+b (a + b) . . . (a + b − n + 1)
Trecând la limită obţinem (2.6).

Exemplul 2.3.1 Să se arate că dacă X, Y sunt două variabile aleatoare independente,
X : Bi(n, p), Y : Bi(m, p) atunci X + Y : Bi(n + m, p).
k
X k
X
P ({X + Y = k}) = P ({X = l, Y = k − l}) = Cnl pl q n−l Cm
k−l k−l m−k+l
p q =
l=0 l=0

k
X
=( Cnl Cm
k−l k n+m−k
)p q k
= Cm+n pk q n+m−k .
l=0

2.4 Variabile aleatoare discrete simple bidimensiona-


le
În aplicaţiile practice ale teoriei probabilităţilor se ı̂ntâlnesc adesea probleme ı̂n care
rezultatele nu pot fi descrise de o variabilă aleatoare, ci de două sau mai multe, ele
formând un vector aleator.
De exemplu, ı̂ntr-un anumit experiment ne interesează să măsurăm atât viteza cât şi
direcţia particulelor atomice emise de o suprafaţă. Acestea sunt date de perechile (v, θ),
unde θ este mărimea unghiului orientat ı̂n raport cu sistemul de referinţă şi v viteza.
Acestea pot fi studiate ca un vector aleator.
Orice variabilă aleatoare discretă simplă bidimensională (X, Y ) se consideră ca un
vector aleator de componente X şi Y .
Dacă vectorul aleator (X, Y ) ia un număr finit de valori, se poate obţine următoarul
tablou numit repartiţia bidimensională sau tablou de repartiţie bidimensional.
X\Y y1 y2 ... yn
x1 p11 p12 ... p1n p1·
x2 p21 p22 ... p2n p2.
.. .. .. .. .. ..
. . . . . .
xm pm1 pm2 . . . pmn pm.
p.1 p.2 . . . p.n 1
68 Variabile aleatoare discrete

Variabilele aleatoare :
   
xi yj
X: , i = 1, m, Y : , j = 1, n,
pi. p.j

se numesc legi de probabilitate marginală pentru vectorul bidimensional (X, Y ).


Din faptul că evenimentele {e ∈ E | X(e) = xi , Y (e) = yj }, i = 1, m, j = 1, n,
formează un sistem complet de evenimente, rezultă că
m X
X n
pij = 1,
i=1 j=1

unde
pij = P ({e ∈ E | X(e) = xi , Y (e) = yj }).
Am notat
n
X m
X
pik = pi. , i = 1, m, pkj = p.j , j = 1, n,
k=1 k=1

cantităţi care se numesc probabilităţi marginale. Ca şi ı̂n cazul variabilelor aleatoare
unidimensionale, rezultă că
n
X
P ({X = xi }) = pij = pi. ,
j=1

m
X
P ({Y = yj }) = pij = p.j .
i=1

Notăm cu P ({xi |yj }) probabilitatea condiţionată:

P ({xi |yj }) = P ({X = xi } | {Y = yj }) .

şi atunci avem


P ({X = xi }| ∩ {Y = yj }) pij
P ({xi |yj }) = = . (2.7)
P ({Y = yj }) p.j
Analog:
pij
P ({yj |xi }) = .
pi.
Dacă ı̂nmulţim relaţia (2.7) cu P ({Y = yj }) obţinem

P ({X = xi } ∩ {Y = yj }) = P ({xi |yj })P ({Y = yj }),

adică am exprimat pij ca un produs dintre o probabilitate condiţionată şi o probabilitate


marginală. Analog se obţine

P ({X = xi } ∩ {Y = yj }) = P ({yj |xi })P ({X = xi }),


Variabile aleatoare discrete 69

Presupunem că ne interesează ca Y să ia valori ı̂ntr-o regiune A,


XX
P {Y ∈ A} = P ({X = xi } ∩ {Y = yj }) =
xi yj ∈A
XX X X (2.8)
= P ({yj |xi })P {X = xi } = P {X = xi } P ({yj |xi })
xi yj ∈A xi yj ∈A

Dacă evenimentele {X = xi } şi {Y = yj } sunt independente, deci variabilele aleatoare


X şi Y sunt independente, atunci pij = pi. p.j şi reciproc.
Deoarece evenimentul

({Y = y1 }|{X = xi }) ∪ ({Y = y2 }|{X = xi }) ∪ . . . ({Y = yn }|{X = xi }) =

= E|{X = xi }
rezultă că
n
X
P ({yj |xi ) = 1}.
j=1

La fel
m
X
P ({xi |yj ) = 1}.
i=1

Observaţie. Putem ataşa vectorului aleator (X, Y ) tabloul de repartiţie dat de legile de
probabilitate condiţionată :
!
x1 x2 . . . xi . . . xm
X|{Y = yj } : p1j p2j pij pmj ,
... ...
p.j p.j p.j p.j

şi respectiv
!
y1 y2 . . . yi . . . ym
Y |{X = xi } : pi1 pi2 pij pin .
... ...
pi. pi. pi. pi.
Deci avem n legi condiţionate ale variabilei aleatoare X corespunzătoare celor n valori
ale variabilei aleatoare Y şi respectiv m legi de probabilitate ale variabilei aleatoare Y
condiţionate de cele m valori ale lui X.

Exemplul 2.4.1 Numărul biţilor, N , dintr-un mesaj transmişi corect este o variabilă
aleatoare care urmează o repartiţie geometrică cu parametrul p. Presupunem că mesa-
jul este ı̂mpărţit ı̂n pachete de maximum M biţi lungime. Fie Q numărul pachetelor
complete formate cu biţii unui mesaj şi R numărul biţilor rămaşi ı̂n ultimul pachet care
poate fi incomplet. Să se calculeze probabilitatea ca mesajul transmis să conţină q pachete
complete, iar ultimul pachet să conţină r biţi. Notăm cu Y variabila aleatoare care ia ca
valori numărul de pachete complete dintr-un mesaj şi cu Z variabila aleatoare care ia ca
valori numărul R de biţi incompleţi din ultimul pachet.
70 Variabile aleatoare discrete

Dacă mesajul are N biţi, atunci numărul pachetelor complete din mesaj este câtul
Q a ı̂mpărţirii lui N la M , iar restul este numărul R al biţilor din ultimul pachet, N =
M Q + R. Variabila aleatoare Y ia valorile 0, 1, 2, . . . iar variabila aleatoare Z ia valorile
0, 1, 2, . . . , M −1. Asociat acestui eveniment considerăm variabila aleatoare bidimensionaă
(Y, Z). Probabilitatea ca mesajul corect să conţină q pachete complete şi ultimul pachet
să conţină r biţi este dată de

P ({Y = q, Z = r}) = P ({X = N }) = pqM +r (1 − p),

unde N = qM + r. Probabilitatea ca mesajul transmis să conţină q pachete complete

P ({Y = q}) = P ({X ∈ {qM, qM + 1, . . . , qM + (M − 1)}}) =


M
X −1
1 − pM
= pqM +k (1 − p) = (1 − p)pqM = (1 − pM )(pM )q , q = 0, 1, . . . .
k=0
1 − p

Observăm că variabila aleatoare Y urmează o repartiţie geometrică cu parametrul pM .


Probabilitatea ca ultimul pachet să conţină r biţi este

X
P ({Z = r}) = P ({X ∈ {r, M + r, 2M + r, . . .}}) = (1 − p)pqM +r =
q=0
1−p r
= p , r = 0, 1, 2, . . . , M − 1
1 − pM

Observăm că variabila aleatoare Z urmează o repartiţie geometrică trunchiată.


Ne punem ı̂ntrebarea dacă sunt variabilele aleatoare Y şi Z independente. Avem:

1−p r
P ({Y = q})P ({Z = r}) = (1 − pM )(pM )q p =
1 − pM
1−p r
= p = P ({Y = q})P ({Z = r}), ∀q = 0, 1, . . . , r = 0, 1, . . . , M − 1.
1 − pM

Variabilele aleatoare Y şi Z sunt independente.

2.5 Variabile aleatoare cu un număr infinit număra-


bil de valori
Dacă A1 , A2 , . . . , An , . . . constituie un sistem numărabil de evenimente care formează
domeniul de definiţie al unei astfel de variabile aleatoare cu P (An ) = pn , n ∈ IN , atunci
tabloul de repartiţie al variabilei aleatoare este
 
x1 x2 . . . xn . . .
X: ,
p1 p2 . . . pn . . .

Ai = {e ∈ E, X(e) = xi }.
Variabile aleatoare discrete 71

Un astfel de tabel trebuie să aibă proprietăţile:



X
pi > 0, ∀i ∈ IN ; pi = 1.
i=1

Operaţiile cu variabile cu un număr infinit numărabil de valori se definesc ca şi ı̂n cazul
variabilelor aleatoare discrete simple. La fel se pune problema şi ı̂n cazul independenţei
variabilelor aleatoare cu un număr infinit numărabil de valori.
72 Variabile aleatoare discrete

Repartiţia Poisson.
Spunem că variabila aleatoare X este repartizată Poisson cu paramatru λ, λ ∈ IR+ ,
dacă tabloul său de repartiţie este
 
0 1 2 ... k ...
X: 2 k .
e−λ 1!λ e−λ λ2! e−λ . . . λk! e−λ . . .
Folosim notaţia
λk −λ
P (k; λ) = e .
k!
Evident P (k; λ) > 0 şi

X ∞
X
λk −λ −λ λk
e =e = e−λ eλ = 1.
k=0
k! k=0
k!

În Figura 2.4 desenăm densitatea de probabilitate generalizată pentru valorea lui λ = 9.
Proprietăţi ale repartiţiei Poisson.
P1. Media repartiţiei Poisson este aceeaşi cu dispersia repartiţiei şi egală cu λ.
Într-adevăr,
X∞ X∞
λk −λ λk−1 −λ
M [X] = k e =λ k e = λ.
k=0
k! k=1
(k − 1)!
Pentru calculul dispersiei folosim formula D2 [x] = M [x2 ] − (M [X])2 .

X ∞
X ∞
2
k
2 λ −λ λk −λ X 2 λk −λ
2
M [X ] = k e = (k − k) e + k e =
k=1
k! k=2
k! k=1
k!

X
2 λk−2 −λ
=λ k2 e + λ = λ2 + λ
k=2
(k − 2)!
D [X] = λ2 + λ − λ = λ.
2

P2. Suma a două variabile aleatoare independente repartizate Poisson de parametrii λ1


şi respectiv λ2 este o variabilă aleatoare repartizată Poisson de parametru λ1 + λ2 .
Într-adevăr
{X1 + X2 = k} =
= {X1 = 0, X2 = k} ∪ {X1 = 1, X2 = k − 1} ∪ . . . ∪ {X1 = k, X2 = 0},
deci
k
X
P ({X1 + X2 = k}) = P ({X1 = k1 , X2 = k − k1 }) =
k1 =0
k
X k
X λ k1 1 λk−k
2
1

P ({X1 = k1 })P ({X2 = k − k1 }) = e−λ1 e−λ2 =


k1 =0 k1
k1 ! (k − k1 )!
k
e−(λ1 +λ2 ) X k! e−(λ1 +λ2 )
= λk11 λ2k−k1 = (λ1 + λ2 )k .
k! k =0
k 1 !(k − k1 )! k!
1
Variabile aleatoare discrete 73

P3. Repartiţia Poisson se obţine ca un caz limită a repartiţiei binomiale când n → ∞


şi p scade astfel ı̂ncât np = λ = const.(ı̂n general, n > 30, p ∈ (0; 0, 1)).
Repartiţia Poisson a apărut odată cu studiul variabilelor aleatoare cu un număr
foarte mare de valori. Exemple clasice de astfel de variabile aleatoare sunt cele
legate de evenimentele care apar rar ı̂ntr-un interval de timp, ca de exemplu:
- numărul de particule emise de o suprafaţă radioactivă ı̂ntr-un interval de timp;
- numărul accidentelor dintr-o fabrică ı̂n decurs de o săptămână;
- numărul maşinilor care trec printr-un anumit loc ı̂ntr-un interval de timp;
- numărul cererilor de I/O la o reţea de calculatoare ı̂ntr-un interval de timp.
Toate aceste procese se numesc Poisson şi ele vor fi studiate ı̂n Capitolul 5. În
aceste cazuri λ este proporţională cu durata intervalului de timp (adică λ = tw, w
λ
coeficient de proporţionalitate). Parametrul w = se mai numeşte parametru de
t
intensitate, reprezentând media numărului de evenimente care se produc ı̂n unitatea
de timp.

P4. Deoarece repartiţia Poisson se ı̂ntâlneşte ı̂n cazul evenimentelor care se ı̂ntı̂mplă
rar (n mare, np = constant, rezultă p mic), ea mai poartă denumirea de legea
evenimentelor rare.

Observaţia 2.5.1 Repartiţia Poisson permite calculul probabilităţii ca un număr de par-


ticule să fie emise de o masă radioactivă intr-un interval de timp. Presupunem că masa
radioactivă conţine n atomi. Într-o perioada fixată de timp fiecare atom are o proba-
bilitate p foarte mică de dezintegrare şi emitere a particulei radioctive. Dacă atomii se
dezinegrează independent unii de alţii, atunci numărul emisiilor ı̂ntr-un interval de timp
poate fi privit ca efectuarea repetată de n ori a unui acelaşi eveniment. De exemplu, un
microgram de radiu conţine aproximativ n = 1016 atomi şi probabilitatea ca un atom să
se dezintegreze ı̂ntr-un interval de timp de o milisecundă este p = 10−15 (Rozanov, 1969).
Astfel sunt ı̂ndeplinite condiţiile din Proprietatea P3: n mare şi p mic astfel ı̂ncât numărul
emisiilor urmaeză o variabilă aleatoare repartizată Poisson.

Teorema 2.5.1 Dacă X urmează o repartiţie binomială,

P ({X = k}) = Cnk pk q n−k ,

atunci
λk −λ
lim Cnk pk q n−k = e ,
n→∞ k!
unde np = λ = const.

Demonstraţie.

n(n − 1) . . . (n − k + 1) λ k λ
lim Cnk pk q n−k = lim ( ) (1 − )n−k =
n→∞ n→∞ k! n n
74 Variabile aleatoare discrete

λk n(n − 1) . . . (n − k + 1) λ n−k λk −λ
= lim (1 − ) = e .
k! n→∞ nk n k!

Pentru calculul probabilităţilor P (k, λ) s-au ı̂ntocmit tabele pentru λ cuprins ı̂ntre
0, 1, . . . , 20. Aceste tabele dau probabilităţile ca evenimentele să se realizeze de cel puţin
m ori. ∞
X λk −λ
P ({X > m}) = e .
k=m
k!
Teorema 2.5.1 ne permite să aproximăm probabilităţile unei repartiţii binomiale.

Exemplul 2.5.1 Probabilitatea de eroare la transmiterea unui bit printr-o linie de comunicaţie
este de 10−3 . Să se calculeze probabilitatea ca la transmiterea unui bloc de 1000 de biti
să avem cinci sau mai mult de cinci erori.

Transmiterea fiecărui bit reprezintă o experienţă Bernoulli care se realizează dacă s-a
produs o eroare la transmiterea bitului. Probabilitatea ca să se producă k erori ı̂n 1000
de transmisii este dată de probabilitatea calculată cu legea binomială cu n = 1000 şi
p = 10−3 . Legea Poisson cu parametrul λ = np = 1000 · 10−3 = 1 aproximează legea
binomială. Astfel
4
X λk n 1 1 1 1o
P [N > 5] = 1 − P [N < 5] = 1 − e−α = 1 − e−1 1 + + + + = 0, 00366
k=0
k! 1! 2! 3! 4!

Exemplul 2.5.2 O fabrică produce becuri şi dă 2 % rebut. Să se aproximeze probabili-
tatea ca ı̂ntr-o cutie de 100 de becuri să obţinem cel mult trei becuri defecte?
Presupunând indepependenţa, avem de-a face cu o variabilă aleatoare repatizată bino-
mial cu p = 0, 02 şi n = 100. Dacă dorim să calculăm probabilitatea cu ajutorul schemei
binomiale, după calcule laborioase obţinem
3
X
k
C100 (0, 2)k (0, 98)100−k = 0, 859.
k=0

Dacă aproximăm X cu o variabilă aleatoare repartizată Poisson, λ = 100 × 0, 02 = 2,


3
X 2k e−2
= 0, 857.
k=0
k!

Următorul exemplu justifică trecerea la limită şi alegerea parametrului λ.

Exemplul 2.5.3 Un generator de particule emite particule ı̂n unitatea de timp. Care
este probabilitatea ca ı̂n intervalul t să apară k impulsuri ?
t
Pentru n suficient de mare ı̂mpărţim [0, t] ı̂n intervale de lungime , ı̂ncât ı̂n fiecare
n
interval să existe cel mult un impuls. Probabilitatea ca ı̂ntr-un interval de timp de lungime
t t wt
să fie ı̂nregistrat un impuls este ≈ w = p (se observă că −→ 0, pentru n → ∞,
n n n
Variabile aleatoare discrete 75

ceea ce justifică ı̂ncă o dată denumirea de eveniment rar). Probabilitatea ca ı̂n intervalul
[0, t] să fie ı̂nregistrate k impulsuri este dată de schema lui Bernoulli

wt k wt n−k (wt)k −wt


Cnk ( ) (1 − ) −→ e pentru n → ∞ cu λ = wt.
n n k!

Repartiţia geometrică.
Spre deosebire de variabila aleatoare binomială care apare când fixăm un număr de
repetări ale unei experienţe care poate consta ı̂n realizarea sau nerealizarea evenimentului
A şi numărăm numărul de realizări ale acestuia, ı̂n cazul variabilei geometrice numărăm
numărul m de efectuări ale experienţei (experienţe de tip Bernoulli, adică independente
şi repetate ı̂n aceleaşi condiţii) până la prima realizare a evenimentului A. În acest caz
variabila aleatoare X ia valorile X = k, k = 1, 2, . . . , m, . . . şi avem

P ({X = k}) = pq k−1 , q = 1 − p, k = 1, 2, 3, . . . ,

unde P (A) = p este probabilitatea de realizare a evenimentului A.


În acest caz
k−1
X k−2
X 0 1 − g k−1
F (k) = P ({X < k}) = pq j−1 = p pq j = p = 1 − q k−1 ,
j=1 j 0 =0
1−q

unde q = 1 − p.
Uneori ne interesează M 0 = M − 1, numărul de repetări ale experienţei până la reuşita
ei:
P [M 0 = k] = P [M = k + 1] = (1 − p)k p, k = 0, 1, 2, . . .
Variabila aleatoare X va lua valoarea 1 dacă evenimentul se realizează ı̂n cadrul primei
experienţe şi deci P ({X = 1}) = p; X va lua valoarea 2 dacă evenimentul A nu s-a realizat
la prima experienţă, dar se realizează la a doua experienţă, P ({X = 2}) = P (Ā ∩ A) =
P (Ā)P (A) = (1−p)p = qp. Analog, P ({X = 3}) = P (Ā∩ Ā∩A) = P (Ā)P (Ā)P (A) = q 2 p
etc. Avem, evident

X ∞
X 1
P ({X = k}) = pq k−1 = p = 1.
k=1 k=1
1−q

Calculăm media şi dispersia variabilei aleatoare.



X ∞
X ∞
k−1 k−1 d X k
M [X] = kpq =p kq =p ( q )=
k=1 k=1
dq k=1

d q p 1
=p [ ]= = ,
dq 1 − q (1 − q)2 p
ţinând seama de proprietăţile seriilor de puteri pentru |q| < 1.

D2 [X] = M [X 2 ] − (M [X])2 ,
76 Variabile aleatoare discrete


X ∞
X ∞
2 2 k−1 2 k−1 d X k
M [X ] = k pq =p k q =p kq =
k=1 k=1
dq k=1
d q 2−p 2−p
=p [ ] = p = ,
dq (1 − q)2 p3 p2
şi deci
2−p 1 q
D2 [X] = 2
− 2 = 2.
p p p
În Figura 2.5 a) şi b) desenăm densitatea de probabilitate generalizată pentru diferite
valori ale lui p.

Exemplul 2.5.4 Calculatorul A transmite un mesaj calculatorului B printr-o linie tele-


fonică. Mesajul este codat astfel ı̂ncât B detectează când se produc erori ı̂n cursul transmi-
terii mesajului. Dacă B detectează o eroare cere calculatorului A retransmiterea mesaju-
lui. Dacă probabilitatea ca transmiterea mesajului să fie eronată este q = 0, 1, care este
probabilitatea ca mesajul să necesite mai mult de două transmisii.
Fiecare transmitere a mesajului urmează o repartiţie binomială cu probabilitatea ca
mesajul să fie corect p = 1 − q. Experienţele se repetă până când prima transmisie este
corectă. Probabilitatea ca mesajul să necesite mai mult de două transmisii este

P ({X > 2}) = q 2 = 10−2 .

Exemplul 2.5.5 Fie N numărul de apeluri pe care le face un calculator spre un terminal
până când terminalul are un mesaj gata de a fi transmis. Dacă presupunem că terminalul
produce mesaje care formează un şir de experienţe care urmează legea binomială, atunci
N are o repartiţie geometrică. Aflaţi media variabilei aleatoare care ia ca valori numărul
de apeluri. Presupunem p = 0, 4.

X 1
M [X = N ] = kpq k−1 = = 2, 5
k=1
p
Aceasta nu este o valoare pe care o poate lua N . Afirmaţia ”N este egală cu 2.5 ı̂n medie”
nu are sens. Sensul afirmaţiei este că media aritmetică a unui număr mare de experienţe
va fi aproape de 2.5.

Repartiţia binomială cu exponent negativ.


Se spune că variabila aleatoare X are repartiţie binomială cu exponent negativ, cu
parametrii m şi p, (m = 1, 2, . . . , 0 < p < 1), dacă X poate lua valorile m, m + 1, m + 2, . . .
iar
m−1 m k−m
P ({X = k}) = Ck−1 p q , q = 1 − p.
Acestă repartiţie apare ı̂n modele de tipul următor: să presupunem că s-a efectuat
un număr de observaţii independente, ı̂n cursul fiecărei observaţii evenimentul A (de
exemplu nefuncţionarea unui subansamblu al unui aparat) poate să se producă cu proba-
bilitatea p. Observaţiile continuă până când evenimentul se produce de m ori şi se caută
probabilitatea pentru ca aceasta să se producă exact ı̂n decursul a k observaţii (k > m).
Variabile aleatoare discrete 77

Evenimentul {X = k} se scrie ca intersecţie a două evenimente: ı̂n primele k −1 observaţii


evenimentul A se produce de m − 1 ori şi ı̂n observaţia k se produce evenimentul A. Din
m−1 m k−m
schema lui Bernoulli se deduce că probabilitatea primului eveniment este Ck−1 p q
iar probabilitatea celui de-al doilea eveniment este egală cu p. Deci
m−1 m−1 k−m m−1 m k−m
P ({X = k}) = pCk−1 p q = Ck−1 p q .
Numele acestei repartiţii provine din faptul că probabilitatea căutată este coeficient
ı̂n dezvoltarea ı̂n serie a lui
X∞ X∞
1 q m−1 k−m m−1 m k−m
( − )−m = pm (1 − q)−m = pm Ck−1 q = Ck−1 p q .
p p k=m k=m

Observăm că definirea acestei variabile aleatoare este corectă deoarece P ({X = k}) >

X
m−1 m k−m
0 şi Ck−1 p q = 1.
k=m

X
−m m−1 k−m
Pentru a calcula media ţinem seama că (1 − x) = Ck−1 x şi deci
k=m

X
xm
= C m−1 xk dacă |x| < 1, (2.9)
(1 − x)m k=m k−1

X
m−1 k−1 d xm mxm−1
Ck−1 x = ( ) = dacă |x| < 1,
k=m
dx (1 − x)m (1 − x)m+1
adică

X ∞
X
m−1 m k−m m −m+1 m−1 k−1 mq m−1 m
M [X] = kCk−1 p q =p q kCk−1 q = pm q −m+1 m+1
= ,
k=m k=m
p p
m
M [X] = .
p
Pentru calculul dispersiei folosim

X ∞
X
2 2 m−1 m k−m m −m+1
M [X ] = k Ck−1 p q =p q k 2 q k−1 .
k=m k=m

Pentru a calcula ultima sumă ı̂nmulţim (2.9) cu x şi derivăm



X
m−1 k−1 d mxm mxm−1 (m + x)
k 2 Ck−1 x = [ ] = ,
k=m
dx (1 − x)m+1 (1 − x)m+2

deci
m(m + q)
M [X 2 ] = ,
p2
iar
mq
D2 [X] = .
p2
78 Variabile aleatoare discrete

2.6 Funcţia generatoare


În problemele ı̂n care apar variabile aleatoare nenegative se utilizeaă funcţia genera-
toare a variabilei aleatoare X, GX (z) care se defineşte prin relaţia


X
GX (z) = pk z k , (2.10)
k=0

unde P ({X = k}) = pk , k = 0, 1, 2, . . .. Deci cunoscând probabilităţile pk putem deter-


X∞
mina funcţia generatoare. Deoarece pk = 1, seria de puteri (2.10) converge pentru
k=0
|z| 6 1. Pentru |z| < 1 seria de puteri se poate deriva terman cu termen şi obţinem:


X ∞
X
(j) (n−k)
GX (z) = n(n − 1) . . . (n − j + 1)pj z = Cnj j!pj z (n−k) .
k=j k=j

Dacă ı̂n relaţia de mai sus facem z = 0 obţinem

(j) 1 (j)
GX (0) = j!pj sau pj = G (0).
j! X

Aceasta ne arată că putem determina toate probabilităţile pk cu ajutorul funcţiei genera-
(j)
toare. Din acestă cauză GX se numeşte funcţie generatoare. În particular, punând z = 1
ı̂n G0X şi ı̂n G00X obţinem:

M [X] = G0X (1), M [X 2 ] = G0X (1) + G00X (1).

Exemplul 2.6.1 Funcţia generatoare pentru variabila aleatoare Poisson cu parametru λ


este dată de

X ∞
X
λk −λ k −λ (λz)k
GX (z) = e z =e = e−λ eλz = eλ(z−1) .
k=0
k! k=0
k!

Primele două derivate ale lui GX (z) sunt date de

G0X (z) = λeλ(z−1) ; G00X (z) = λ2 eλ(z−1) .

De aici rezultă media şi dispersia variabilei aletoare Poisson

M [X] = λ
D2 [X] = λ2 + λ − λ2 = λ.
Variabile aleatoare discrete 79

2.7 Probleme propuse


Problema 2.1 Se defineşte variabila aleatoare
 
−1 0 1
X: .
1/3 1/3 1/3

Să se scrie tabloul de repartiţie al variabilelor aleatoare X 2 , X + X 2 , X + X 3 .


Indicaţie. P ({X 2 = 0}) = P ({X = 0}) = 1/3, P ({X 2 = 1}) = P ({X = 1} ∪ {X =
−1}) = 1/3 + 1/3 = 2/3.  
2 0 1
X : .
1/3 2/3
 
2 −1 0 1 2
X +X : .
0 1/3 0 2/3
 
3 −2 −1 0 1 2
X +X : .
1/3 0 1/3 0 1/3

Problema 2.2 Fie


 
0 1 2 3 4
X: .
0, 15 0, 45 0, 20 0, 15 0, 05
Să secalculeze:
a) valoarea medie a variabilei aleatoare X şi momentul iniţial de ordin 2;
b) dispersia;
c) momentul centrat de ordin 3.
Indicaţie.
X5 5
X
a) M [X] = 2
xi pi = 1, 5, M [X ] = x2i pi = 3, 4.
1 1
b) Notăm m = M [X] = 1, 5, D2 [X] = M [(X − m)2 ].
 
−1, 5 −0, 5 0, 5 1, 5 2, 5
X −m: .
0, 15 0, 45 0, 20 0, 15 0, 05
 
0, 25 2, 25 6, 25
X −m: .
0, 65 0, 30 0, 05
D2 [X] = M [(X − m)2 ] = 1, 15 sau D2 [X] = M [X 2 ] − (M (X))2 .
5
X
b) M [(X − m)3 ] = (xi − m)3 pi ,
1
 
3 (−1, 5)3 (−0, 5)3 (0, 5)3 (1, 5)3 (2, 5)3
(X − m) : .
0, 15 0, 45 0, 20 0, 15 0, 05

astfel ı̂ncât M [(X − m)3 ] = 0, 75.


Problema 2.3 Fie X o variabilă aleatoare repartizată binomial.
80 Variabile aleatoare discrete

a. Să se atate că


pk (n − k + 1)p (n + 1)p − k
= =1+
pk−1 kq kq
b. Să se atate că a. implică:(1) P ({X = k}) este maximă pentru kmax = [(n+1)p], unde
[x] este partea ı̂ntreagă a lui x; (2) dacă (n + 1)p este un ı̂ntreg, atunci maximum
este atins ı̂n kmax şi kmax − 1.

Indicaţie. b. Impunem condiţiile pk /pk−1 > 1, pk+1 /pk < 1.


Problema 2.4 Fie X o variabilă aleatoare repartizată geometric. Să se calculeze
P ({X > k}) şi P ({Xeste un număr par}).
Indicaţie. P ({X > k}) = 1 − P ({X < k}) − P ({X = k}) = 1 − (1 − q k−1 )pq k−1 = q k ;
X∞ ∞ ∞
 X X p 1
P {X = 2k} = P ({X = 2k}) = pq 2k−1 = 2
= .
k=1 k=1 k=1
1 − q 1 + q
Problema 2.5 Să se arate că variabila aleatoare geometrică are proprietatea de pier-
dere a memoriei

P ({X > k + j|X > j}) = P ({X > k}), ∀j, k > 0

În ce sens are loc pierdera memoriei?



P (X > k + j) ∩ (X > j)
Indicaţie. P ({X > k + j}|{X > j}) = = q k . Pierderea
P ({X > j})
memoriei are loc ı̂n sensul că probabilitatea realizării unui eveniment, legat de o experi-
enţă Bernoulli, după k + j − 1 nerealizări, ştiind că nu s-a realizat după j efectuări ale
experienţei, depinde numai de k.
Problema 2.6 Fie X o variabilă aleatoare repartizată geometric. Să se calculeze
P ({X = k | X 6 m}).
Indicaţie. q k−1 p/(1 − q m ), 1 6 k 6 m.
Problema 2.7Fie X o variabilă aleatoare repartizată binomial.
a. Să se atate că
pk (n − k + 1)p (n + 1)p − k
= =1+
pk−1 kq kq
b. Să se atate că a. implică:(1) P ({X = k}) este maximă pentru kmax = [(n+1)p], unde
[x] este partea ı̂ntreagă a lui x; (2) dacă (n + 1)p este un ı̂ntreg, atunci maximum
este atins ı̂n kmax şi kmax − 1.

Indicaţie. b. Impunem condiţiile pk /pk−1 > 1, pk+1 /pk < 1.


Problema 2.4 Fie X o variabilă aleatoare repartizată geometric. Să se calculeze
P ({X > k}) şi P ({Xeste un număr par}).
Indicaţie. P ({X > k}) = 1 − P ({X < k}) − P ({X = k}) = 1 − (1 − q k−1 )pq k−1 = q k ;
X∞ ∞ ∞
 X X p 1
P {X = 2k} = P ({X = 2k}) = pq 2k−1 = 2
= .
k=1 k=1 k=1
1−q 1+q
Variabile aleatoare discrete 81

Problema 2.8 Comparaţi aproximaţia obţinută cu variabila Poisson cu probabilitatea


binomială pentru k = 0, 1, 2, 3 şi n = 19, p = 0, 1; n = 20, p = 0, 05; n = 100, p = 0, 01.
Problema 2.9 Fie X o variabilă aleatoare repartizată Poisson. Să se arate că pentru
λ < 1, P ({X = k}) este maxim ı̂n k = 0; pentru λ > 1, P ({X = k}) este maximum pentru
[λ]; dacă λ este ı̂ntreg pozitiv, P ({X = k}) este maximum pentru λ = k şi k = λ − 1.
Problema 2.10 Calculaţi media şi dispersia unei variabile aleatoare discrete care ia
valorile {1, 2, . . . , n} cu aceeaşi probabilitate.
1
Indicaţie. P ({X = k}) = , k = 1, 2, ..., n..
n
Problema 2.11 Să se calculeze probabilităţile marginale pentru următorii vectori
aleatori bidimensionali:
X \Y −1 0 1
-1 1/6 0 1/6
0 0 1/3 0
1 1/6 0 1/6

X \Y −1 0 1 X \Y −1 0 1
-1 1/9 1/9 1/9 -1 0 0 1/3
0 1/9 1/9 1/9 0 0 1/3 0
1 1/9 1/9 1/9 1 1/3 0 0

Să se calculeze probabilităţile evenimentelor A = {X 6 0}, B = {x 6 Y } şi C =


{X = −Y }.
Indicaţie. În toate cazurile P ({X = −1}) = P ({X = 0}) = P ({X = 1}) = 1/3,
P ({Y = −1}) = P ({Y = 0}) = P ({Y = 1}) = 1/3.
Problema 2.12 Un mesaj necesită X unităţi de timp pentru a fi transmis, unde X
este o variabilă aleatoare repartizată geometric cu pj = (1 − α)αj−1 , j = 1, 2, . . .. Un
singur nou mesaj este transmis ı̂ntr-o unitate de timp cu probabilitatea p şi nici un mesaj
cu probabilitatea 1 − p. Fie K numărul de mesaje noi care apar de-a lungul transmiterii
unui singur mesaj. Să se calculeze probabilitatea P ({X = k}). Să se calculeze M [X] şi
D2 [X].
(1 − α) pα
Indicaţie. P ({X = k}) = ( )k .
α(1 − α(1 − p)) 1 − α(1 − p)
Problema 2.13 Numărul total de defecte care apar la un circuit urmează o distribuţie
Poisson cu parametrul λ. Presupunem că fiecare defect apare ı̂ntr-o anumită regiune R
cu probabilitatea p şi că apariţia unui defect este independentă de apariţia altor defecte.
Să se determine probabilitatea ca numărul de defecte Y care apar ı̂n regiunea R să fie j.
Indicaţie. Folosind ecuaţia (2.8) avem

X
P ({Y = j}) = P ({Y = j/X = k})P ({X = k}).
k=0
82 Variabile aleatoare discrete

Defectele care apar ı̂n fiecare moment pot fi considerate ca experienţe Bernoulli care se
realizează cu succes dacă defectul este ı̂n regiunea R. Dacă numărul total de defecte este
X = k, atunci numărul de defecte care apar ı̂n regiunea R urmează o repartiţie Bernoulli
de parametrii k şi p:

P ({Y = j|X = k}) = Ckj pj (1 − p)k−j , 0 6 j 6 k.

Atunci ∞
X k! λk
P ({Y = j}) = pj (1 − p)k−j e−λ =
k=j
j!(k − j)! k!

(λp)j e−λ X ((1 − p)λ)k−j (λp)j e−λ (1−p)λ (λp)j −λp
= = e = e .
j! k=j
(k − j)! j! j!

Astfel Y este o variabilă aleatoare repartizată Poisson cu media λp.


Capitolul 3

Variabile aleatoare continue

3.1 Funcţia de repartiţie a unei variabile aleatoare


unidimensionale
În cele ce urmează {E, K, P } este un câmp borelian de probabilitate, noţiune care a
fost definită ı̂n Capitolul 1.8.
Definiţia 3.1.1 Funcţia X : E→IR se numeşte variabilă aleatoare dacă
∀x ∈ IR, {e ∈ E|X(e) < x} ∈ K. (3.1)
Pentru simplificare vom nota {X < x} = {e ∈ E|X(e) < x}. Această condiţie are loc
totdeauna ı̂n cazul unei variabile aleatoare discrete (alegând eventual un câmp borelian
convenabil). Din definiţie şi din proprietăţile lui K (de a fi ı̂nchis la complementară,
reuniuni şi intersecţii numărabile), fiecare din mulţimile
{X 6 x}, {X > x}, {X > x}, {a 6 X < b},
{a < X 6 b}, {a < X < b}, {a 6 X 6 b}, ∀x, a, b ∈ IR, (3.2)
aparţine lui K, dacă (3.1) are loc şi reciproc, apartenenţa la K a oricărei mulţimi (3.2)
implică (3.1). Pentru exemplificare, să demonstrăm că pentru orice x ∈ IR, următoarele
două afirmaţii sunt echivalente:
i. {X < x} ∈ K;
ii.{X 6 x} ∈ K.
Să demonstrăm (i) ⇒ (ii). Putem scrie

\
{X 6 x} = {X < x + 1/n}.
n=1

Din (i) avem {X < x + 1/n} ∈ K şi din faptul că familia K este ı̂nchisă la intersecţii
numărabile, rezultă că {X 6 x} ∈ K.
Pentru implicaţia (ii) ⇒ (i), observăm că

[
{X < x} = {X 6 x − 1/n},
n=1

83
84 Variabile aleatoare continue

iar {X 6 x − 1/n} ∈ K. Echivalenţa {X < x} ∈ K ⇔ {X > x} ∈ K, ∀x ∈ R, rezultă


din faptul că {X 6 x} = {X > x} şi axioma a) din definiţia câmpului borelian.

Exemplul 3.1.1 Dacă E = IR, iar K este cel mai mic corp borelian ce conţine toate
intervalele (a, b), ∀a, b ∈ IR, elementele lui K se numesc mulţimi boreliene. Orice funcţie
f : IR → IR continuă este o variabilă aleatoare, deoarece contraimaginea unei mulţimi
deschise este o mulţime deschisă. Se poate demonstra că acest rezultat se păstrează şi ı̂n
cazul mulţimilor boreliene (contraimaginea unei mulţimi boreliene este boreliană).

Următoarele propoziţii ne arată că operaţiile uzuale cu funcţii, aplicate variabilelor alea-
toare, au ca rezultat tot variabile aleatoare.

Propoziţia 3.1.1 Fie X o variabilă aleatoare şi c ∈ IR, atunci următoarele funcţii:

1. X + c;

2. cX;

3. |X|;

4. X 2 ;

5. 1/X;

sunt variabile aleatoare.

Demonstraţie. Vom transforma convenabil relaţia (3.1) ı̂n fiecare caz şi vom folosi faptul
că X este variabilă aleatoare.
1.{X + c < x} =  {X < x − c} ∈ K, ∀x ∈ IR.
{X > x/c}, dacă c < 0
2.{cX < x} = ∈ K.
{X < x/c}, dacă c > 0
Dacă c = 0, afirmaţia este imediată.
3.{|X| < x} = {X < x} √ ∩ {X > −x} ∈ K.
2
4.{X < x} =  {|X| < x} ∈ K, ∀x > 0.
1  {X < 0} ∩ {X > 1/x}, dacă x < 0
5.{ < x} = {X < 0}, dacă x = 0 ∈ K.
X 
{X < 0} ∪ {X > 1/x}, dacă x > 0

Propoziţia 3.1.2 Dacă X şi Y sunt variabile aleatoare, atunci:

1. X − Y ;

2. X + Y ;

3. XY ;

4. X/Y ;

5. max(X, Y );
Variabile aleatoare continue 85

6. min(X, Y );
sunt variabile aleatoare.

Demonstraţie. Toate afirmaţiile 2-6, decurg din prima. Să demonstrăm 1. Folosind
numărabilitatea mulţimii Q şi faptul că ı̂ntre două numere reale există cel puţin un număr
raţional putem scrie:

!
[
{X − Y < x} = {X < Y + x} = ({X < rn } ∩ {rn − x < Y }) ∈ K,
n=1

unde rn ∈ Q.
Pentru 2, observăm că X + Y = X − (−Y ), iar pentru XY , afirmaţia rezultă din
1
identitatea XY = [(X + Y )2 − (X − Y )2 ].
4
4 este o consecinţă a afirmaţiei precedente şi a Propoziţiei 3.1.1.
Ultimele două afirmaţii rezultă din egalităţile:
1
max(X, Y ) = (X + Y + |X − Y |),
2
1
min(X, Y ) = (X + Y − |X − Y |).
2

Definiţia 3.1.2 {Xi }, i ∈ I este o familie de variabile aleatoare independente, dacă


pentru orice J ⊂ I, J finită şi orice familie {Bj }, j ∈ J de mulţimi boreliene (vezi
Exemplul 3.1.1) are loc:
\ Y
P ({ Xj−1 (Bj )}) = P ({Xj−1 (Bj )}).
j∈J j∈J

Propoziţia 3.1.3 Fie {Xi } , i ∈ I o familie de variabile aleatoare independente şi


fi : IR → IR o familie de funcţii continue. Atunci familia {fi ◦ Xi } constituie o familie de
variabile aleatoare independente.

Demonstraţie. Pentru orice J ⊂ I finită, are loc:


\ \ Y
P ({ (fj ◦ Xj )−1 (Bj )}) = P ({ Xj−1 ◦ fj−1 (Bj )}) = P ({Xj−1 (fj−1 (Bj ))}).
j∈J j∈J j∈J

Deoarece fj este o funcţie continuă, contraimaginea unei mulţimi boreliene este de aseme-
nea boreliană, iar afirmaţia rezultă din faptul că Xj este variabilă aleatoare.

Definiţia 3.1.3 Funcţia F : IR → [0, 1], definită prin

F (x) = P ({X < x}) (3.3)

se numeşte funcţia de repartiţie a variabilei aleatoare X.


86 Variabile aleatoare continue

Dacă se particularizează definiţia ı̂n cazul unei variabile aleatoare discrete, se obţine
funcţia ı̂n scară dată ı̂n Capitolul 2.2.

Propoziţia 3.1.4 Următoarele afirmaţii sunt adevărate:

1. Dacă x1 < x2 , atunci F (x1 ) 6 F (x2 ), ∀x1 , x2 ∈ IR;

2. F (x − 0) = F (x), ∀x ∈ IR (F este continuă la stânga);

3. lim F (x) = 0;
x→−∞

4. lim F (x) = 1;
x→+∞

Demonstraţie.
1. Observăm că {X < x2 } = {X < x1 } ∪ {x1 6 X < x2 }, iar cele două evenimente
sunt incompatibile. Aplicând probabilitatea peste ultima relaţie, găsim

F (x2 ) = P ({X < x2 }) = F (x1 ) + P ({x1 6 X < x2 }) > F (x1 ),

deoarece din definiţie, P ({x1 6 X < x2 }) > 0.


2. Fie xn un şir crescător la x. Avem:

[
{X < x} = {X < x1 } ∪ ( {xn 6 X < xn+1 }).
n=1

Aplicând probabilitatea, găsim



X
F (x) = F (x1 ) + (F (xn+1 ) − F (xn ))
n=1

deci seria precedentă este convergentă şi are ca sumă limita şirului de sume parţiale.

F (x) = F (x1 ) + lim (F (x2 ) − F (x1 ) + F (x3 ) − F (x2 ) + . . . + F (xn+1 ) − F (xn )) =


n→∞

= lim F (xn+1 ) = F (x − 0).


n→∞

3. Dacă xn este un şir descrescător la −∞, atunci



[
{X < x} = {x1 6 X < x} ∪ ( {Xn+1 6 X < xn }).
n=1

Aplicând probabilitatea, rezultă



X
F (x) = F (x) − F (x1 ) + (F (xn ) − F (xn+1 )),
n=1

de unde lim F (xn+1 ) = 0.


n→∞
Variabile aleatoare continue 87

4. Se constată că

[
{X 6 ∞} = {X < x1 } ∪ ( {xn 6 X < xn+1 }),
n=1

unde xn este un şir crescător la +∞. Procedând ca mai sus, găsim 1 = lim F (xn ).
n→∞

Observaţie. Dacă x1 < x2 , atunci

P ({x1 6 X < x2 }) = F (x2 ) − F (x1 ).

Afirmaţia rezultă folosind demonstraţia punctului 1.


Folosind relaţia dintre probabilitatea unui eveniment şi cea a evenimentului contrar,
mai rezultă
P ({X > x}) = 1 − F (x).
Observaţie. Se poate demonstra că, reciproc, orice funcţie F : IR → IR având proprietăţile
1-4, este funcţia de repartiţie a unei variabile aleatoare, pe un anumit câmp de pro-
babilitate, de aceea vom spune că aceste proprietăţi reprezintă o caracterizare a funcţiei
de repartiţie. De exemplu putem lua E = (0, 1) şi K corpul borelian generat de inter-
valele deschise ale lui E, iar P măsura Lebesgue [ 22 ] pentru care vom schiţa modul de
construcţie. Notăm cu
[
D = { (ai , bi )|(ai , bi ) ∩ (aj , bj ) = ∅, I ⊆ IN }, ∀ai , bi ∈ (0, 1).
i∈I

Elementele lui D se numesc mulţimi deschise. Definim aplicaţia

P0 : D → [0, 1],
[ X
P0 ( (ai , bi )) = (bi − ai ), ∀ai , bi ∈ (0, 1).
i∈I i∈I

Se observă că dacă I are un singur element, condiţia de mai sus devine:

P0 (a, b) = b − a, ∀a, b ∈ (0, 1)

formulă care dă lungimea intervalului (a, b); deci măsura Lebesgue a unei reuniuni nu-
mărabile de intervale disjuncte este suma lungimilor lor. Seria din membrul al doilea are
şirul sumelor parţiale sn mărginit. Într-adevăr, ordonând intervalele din şirul sumelor
parţiale, putem presupune 0 6 a1 < a2 < . . . an şi bn 6 1. Atunci
n
X n
X n−1
X
sn = (bi − ai ) 6 (bi − ai ) + (ai+1 − bi ) = bn − a1 6 1 − 0 = 1.
i=1 i=1 i=1

Fie K cel mai mic corp borelian (se poate arăta că există), care conţine D, pe care ı̂l
notăm K; aplicaţia P0 poate fi prelungită la o probabilitate pe K, astfel ı̂ncât să aibă loc
∀D ∈ D, P (D) = P0 (D).
88 Variabile aleatoare continue

Fie F o funcţie care satisface condiţiile propoziţiei precedente; pentru simplificare


să presupunem că F este strict monotonă şi continuă (deci este inversabilă) şi notăm
X = F −1 . Atunci F este funcţia de repartiţie a variabilei aleatoare X. Într-adevăr,
P ({y ∈ (0, 1)|X(y) < x}) = P ({y ∈ (0, 1)|F −1 (y) < x}) =
= P0 ({y ∈ (0, 1)|y < F (x)}) = F (x) − 0 = F (x),
unde P este măsura Lebesgue introdusă anterior.
Propoziţia 3.1.5 Pentru orice variabilă aleatoare X, are loc
P ({X = x}) = F (x + 0) − F (x).
Demonstraţie. Fie x1 > x2 > . . . xn > xn+1 > . . . un şir convergent la x. Atunci are loc

[
{X > x} = {X = x} ∪ {X > x1 } ∪ ( {xn+1 6 X < xn }).
n=1

Aplicând probabilitatea, găsim


1 − F (x) = P ({X = x}) + 1 − F (x1 ) + lim (F (x1 ) − F (x2 ) + . . . + F (xn ) − F (xn+1 )) =
n→∞

= P ({X = x}) + 1 − lim F (xn ) = P ({X = x}) + 1 − F (x + 0).


n→∞
Deci afirmaţia este adevărată.
Din propoziţia precedentă deducem că următoarele afirmaţii sunt echivalente:
i. P ({X = x}) = 0;
ii. F este continuă ı̂n x.
Propoziţia 3.1.6 O funcţie de repartiţie are o mulţime cel mult numărabilă de puncte
de discontinuitate de prima speţă.
Demonstraţie. Fiind monotonă, funcţia de repartiţie F nu poate avea decât discontinuităţi
de prima speţă (deci ı̂n orice punct x ∈ R, există F (x − 0) = F (x) şi F (x + 0) finite).
Deoarece 0 6 F (x) 6 1, F nu poate avea un salt mai mare ca 1/2, cel mult trei salturi
cuprinse ı̂ntre 1/4 şi 1/2, iar ı̂n general cel mult 2n − 1 salturi cuprinse ı̂ntre 21n şi 2n−1
1
.
Renumerotând, obţinem mulţimea salturilor cel mult numărabilă.
O variabilă aleatoare cu funcţie de repartiţie continuă va fi numită variabilă aleatoare
continuă. Dacă X este o variabilă aleatoare continuă, iar A este o mulţime cel mult
numărabilă, atunci probabilitatea ca X să ia valori ı̂n A este nulă, adică
P ({e ∈ E|X(e) ∈ A}) = P ({X −1 (A)}) = 0.

Definiţia 3.1.4 Fie X o variabilă aleatoare cu funcţia de repartiţie F şi q ∈ IN ∗ ; nu-


merele ci , i = 1, . . . q − 1 definite prin
i i
F (ci ) 6 , F (ci + 0) >
q q
se numesc q-cvantile .
Variabile aleatoare continue 89

q-cvantilele sunt unic determinate dacă F este continuă şi strict crescătoare ca soluţii ale
ecuaţiei
i
F (ci ) = , i = 1 . . . q − 1.
q
Pentru q = 2 se obţine mediana, pe care o vom nota me şi care se caracterizează prin
1 1
F (me ) 6 , F (me + 0) > , (3.4)
2 2
iar ı̂n cazul continuităţii lui F ,
1
F (me ) = .
2
Pentru q = 4 se obţin cvartilele, pentru q = 10,decilele etc.

Funcţia de repartiţie condiţionată.


În câmpul de probabiliatate {E, K, P } considerăm A ∈ K, cu proprietatea P (A) 6= 0.
Reamintim că ı̂n Capitolul 1.2 s-a definit noţiunea de probabilitate condiţionată prin
formula
P (A ∩ B)
P (B|A) = PA (B) = , ∀B ∈ K.
P (A)
Definiţia 3.1.5 Dată o variabilă aleatoare X, numim funcţie de repartiţie condiţionată
de evenimentul A, funcţia dată de
P ({X < x} ∩ A)
F (x|A) = P ({X < x}|A) = .
P (A)
Toate proprietăţile funcţiei de repartiţie se păstrează; menţionăm

F (+∞|A) = 1; F (−∞|A) = 0.

Să demonstrăm următoarea formulă

P ({a 6 X < b}|A) = F (b|A) − F (a|A). (3.5)

Într-adevăr, dacă a < b avem {X < a} ⊂ {X < b} şi


P ({a 6 X < b} ∩ A) P (({X < b} ∩ A) \ ({X < a} ∩ A))
P ({a 6 X < b}|A) = = =
P (A) P (A)
P ({X < b} ∩ A) − P ({X < a} ∩ A)
= = F (b|A) − F (a|A).
P (A)
Ne interesează ı̂n continuare, pentru numeroasele aplicaţii practice, unele cazuri particu-
lare ale evenimentului A.

1. Dacă A = {X < a} şi F (a) = P ({X < a}) 6= 0, atunci



F (x)
P ({X < x} ∩ {X < a})  , dacă x 6 a
F (x|A) = = F (a)
P ({X < a}) 
1, dacă x > a.
90 Variabile aleatoare continue

Deci obţinem 
 F (x)
, dacă x 6 a
F (x|{X < a}) = F (a) (3.6)

1, dacă x > a.
În Figura 3.1 sunt ilustrate cele două funcţii.
2. Fie A = {a 6 X < b} astfel ca P (A) = F (b) − F (a) 6= 0. Deducem imediat că


 0, dacă x 6 a,
 F (x) − F (a)
F (x|{a 6 X < b}) = , dacă a < x 6 b, (3.7)

 F (b) − F (a)

1, dacă x > b.

Demonstrăm următoarea formulă, care se dovedeşte utilă ı̂n aplicaţii. În ipotezele prece-
dente are loc

(F (b|A) − F (a|A))P (A)


P (A|{a 6 X < b}) = . (3.8)
F (b) − F (a)
Aceasta rezultă imediat
P (A ∩ {a 6 X < b})
P (A|{a 6 X < b}) = =
P ({a 6 X < b})

P ({a 6 X < b}|A)P (A) (F (b|A) − F (a|A))P (A)


= = .
F (b) − F (a) F (b) − F (a)
În ultima relaţie s-a folosit (3.5).

3.2 Densitatea de probabilitate. Repartiţia normală


Fie {E, K, P } un câmp borelian de probabilitate. Considerăm o clasă de variabile
aleatoare X pentru care există o funcţie f : IR → IR+ cu un număr finit de puncte de
discontinuitate de prima speţă, ce satisface relaţia
Z x
F (x) = f (t)dt, (3.9)
−∞

unde F (x) este funcţia de repartiţie a variabilei X.


Funcţia f se numeşte densitate de probabilitate.
Dacă f este continuă ı̂n x ∈ IR, atunci F este derivabilă ı̂n x şi

F 0 (x) = f (x).

Acest lucru rezultă imediat dacă se aplică teorema de medie ı̂n integrala Riemann şi
continuitatea lui f . Într-adevăr,
R x+∆x
F (x + ∆x) − F (x) f (t)dt
lim = lim x = f (x).
∆x→0 ∆x ∆x→0 ∆x
Variabile aleatoare continue 91

Dacă a, b ∈ IR şi F este continuă, atunci


Rb
P ({a 6 X < b}) = a
f (x)dx.

Dacă ı̂n relaţia (3.9) trecem la limită pentru x tinzând la ∞ şi folosim faptul că lim F (x) = 1,
x→∞
deducem Z +∞
f (t)dt = 1. (3.10)
−∞

Reciproc, dacă o funcţie f : IR → IR+ , cu un număr finit de puncte de discontinuitate


de prima speţă, satisface (3.10), atunci ea este integrabilă pe orice interval de forma
(−∞, x), ∀x ∈ IR, deoarece
Z x Z +∞
f (x)dt 6 f (t)dt = 1
−∞ −∞

şi funcţia F : IR → IR, definită prin


Z x
F (x) = f (t)dt,
−∞

satisface condiţiile propoziţiei (3.1.4), deci este o funcţie de repartiţie, dacă ţinem cont
de observaţia făcută după această propoziţie.

Repartiţia uniformă. Vom nota cu X : U (a, b) o variabilă aleatoare uniform repar-


tizată pe intervalul (a, b), ∀a, b ∈ IR, dacă densitatea de probabilitate este dată de
( 1
, dacă a 6 x 6 b
f (x) = b−a
0, ı̂n rest.

Se constată imediat că este ı̂ndeplinită condiţia (3.10). Funcţia de repartiţie este dată de

Z
x  0,

x−a
dacă x 6 a,
F (x) = f (t)dt = , dacă a < x 6 b,
−∞ 
 b−a
1, dacă x > b.

Graficele celor două funcţii sunt reprezentate ı̂n figurile 3.2 şi 3.3.

Exemplul 3.2.1 Dacă efectuăm măsurători de precizie, iar rezultatul este cuprins ı̂ntre
k şi k + 1 unităţi, convenind să-l aproximăm cu k + 1/2, comitem o eroare care poate fi
presupusă uniform repartizată pe intervalul (−1/2, 1/2), deci are densitatea

1, dacă x ∈ [−1/2, 1/2],
f (x) =
0, ı̂n rest.
92 Variabile aleatoare continue

Repartiţia normală. Variabila aleatoare X este distribuită normal cu parametrii


m ∈ IR, σ > 0 şi vom nota X : N (m, σ 2 ), dacă are densitatea de probabilitate

1 (x−m)2
f (x) = √ e − 2σ 2 , ∀x ∈ IR. (3.11)
2πσ
Observăm că f (x) > 0. Pentru calculul integralei din condiţia (3.10) facem schimbarea
x−m
de variabilă y = şi obţinem
σ
Z ∞ Z ∞ (x−m)2
Z ∞ y2
1 − 1
f (x)dx = √ e 2σ 2
dx = √ e− 2 dy = 1.
−∞ 2πσ −∞ 2π −∞
Pentru calculul ultimei integrale vezi Anexa 3.
Dacă m = 0 şi σ = 1, repartiţia se mai numeşte normată şi are densitatea

1 − x2
f (x) = √ e 2. (3.12)

Graficul este cunoscut sub numele de ”clopotul lui Gauss”. Se constată că acesta este
1
simetric faţă de dreapta x = m, pentru x = m funcţia f are maxim egal cu f (m) = √2πσ ,
iar punctele m ± σ sunt puncte de inflexiune. Pentru σ constant şi m variabil, graficul se
translează corespunzător. Dacă m este constant, iar σ variabil se constată că punctul de
maxim variază invers proporţional ı̂n raport cu σ. În Figura 3.4 se poate constata cum
variază densitatea ı̂n funcţie de σ. Funcţia de repartiţie F are graficul dat de Figura 3.5
şi se poate determina numeric, dacă se cunosc valorile funcţiei lui Laplace , care se
defineşte prin Z z
1 x2
Φ(z) = √ e− 2 dx, ∀z ∈ IR.
2π 0
Se verifică uşor că Φ(−z) = −Φ(z) , ceea ce permite tabelarea funcţiei doar pentru valori
pozitive. Mai observăm că are loc relaţia
Z z
1 x2 1
lim √ e− 2 dx = . (3.13)
z→∞ 2π 0 2

Să exprimăm funcţia de repartiţie cu ajutorul funcţiei lui Laplace. În integrala F (x) =
Rx t−m
−∞
f (t)dt facem schimbarea de variabilă = u şi obţinem
σ
Z x−m
1 σ u 2

F (x) = √ e− 2 σdu =
2πσ −∞

Z 0 Z x−m
1 u 2
u2 1 x−m
e− 2 du +
σ
=√ ( e− 2 du) = + Φ( ).
2π −∞ 0 2 σ
În ultima egalitate s-a folosit relaţia (3.13). Se obţine astfel formula
1 x−m
F (x) = + Φ( ). (3.14)
2 σ
Variabile aleatoare continue 93

Din (3.14), folosind faptul că P ({a 6 X < b}) = F (b) − F (a), deducem
b−m a−m
P ({a 6 X < b}) = Φ( ) − Φ( ).
σ σ
Probabilitatea ca abaterea faţă de m, notată |X − m| să nu depăşească  > 0, este dată
de

P ({|X − m| < }) = 2Φ( ).
σ
Regula celor 3σ. O variabilă normal repartizată X : N (m, σ 2 ) ia valori semnificative ı̂n
intervalul (m − 3σ, m + 3σ). Într-adevăr, P ({|X − m| > 3σ}) = 1 − P ({|X − m| < 3σ}) =
1 − 2Φ(3) = 0, 0027, valoare care ı̂n unele situaţii poate fi neglijată.
Exemplul 3.2.2 Durata de funcţionare a unei baterii este o variabilă aleatoare, no-
tată X, repartizată normal N (m, σ 2 ), unde m = 120 zile reprezintă timpul mediu de
funcţionare, iar σ = 10 zile reprezintă abaterea faţă de medie (aceste noţiuni vor fi intro-
duse şi studiate şi ı̂n cazul continuu ı̂n Capitolul 3.4). Determinaţi
a. probabilitatea ca bateria să funcţioneze cel puţin 100 de zile;
b. probabilitatea ca bateria să funcţioneze ı̂ntre 100 şi 150 de zile;
c. intervalul de timp ı̂n care se poate presupune că bateria funcţionează aproape sigur.
a. P ({X > 100}) = 1 − P ({X < 100}) = 1 − F (100) = 1 − ( 12 + Φ( 100−120 10
)) =
1
2
+ Φ(2) = 0, 97725;
b. P ({100 6 X 6 150}) = Φ( 150−120 10
) − Φ( 100−120
10
) = Φ(3) + Φ(2) = 0, 9759;
c. Aplicı̂nd regula celor 3σ, găsim intervalul căutat de forma |X − m| < 3σ, deci
bateria funcţionează aproape sigur ı̂ntre 90 şi 150 zile.

Exemplul 3.2.3 Repartiţia erorilor accidentale de măsurare. Alte tipuri de erori decât cele
datorate aproximărilor (ı̂n cazul măsurătorilor de precizie) sunt cele accidentale. Notăm cu
X eroarea comisă la efectuarea unei măsurători, care este o variabilă aleatoare. Dacă val-
oarea exactă a mărimii este r, prin efectuarea a n măsurători obţinem valorile r1 , r2 , . . . , rn
aproximative şi erorilor ek = r − rk , k = 1, . . . n. Să determinăm o funcţie derivabilă, f ,
care să fie densitatea de probabilitate a variabilei X. Probabilitatea ca eroarea să fie
cuprinsă ı̂n intervalul [ek , ek + hk ], k = 1, . . . , n, cu hk suficient de mic poate fi aproximată
cu f (ek )hk , iar ı̂n cele n măsurători independente este produsul

p(r) = h1 f (e1 )h2 f (e2 ) . . . hn f (hn ) = h1 h2 . . . hn f (r − r1 ) . . . f (r − rn ).

Legea numerelor mari (care va fi studiată amănunţit ı̂n Capitolul 4) ne permite să luăm
ca valoare cea mai probabilă media aritmetică, notată
1
r̄ = (r1 + . . . rn ).
n
Deci r̄ este un punct de maxim pentru p(r). Notăm cu g(r) = f (r − r1 ) . . . f (r − rn ). Din
condiţia p0 (r̄) = 0, rezultă g 0 (r̄) = 0. Are loc
n
X
f (r − r1 ) . . . f (r − ri−1 )f 0 (r − ri )f (r − ri+1 ) . . . f (r − rn )
g 0 (r) i=1
= =
g(r) f (r − r1 ) . . . f (r − rn )
94 Variabile aleatoare continue

n
X f 0 (r − ri )
= .
i=1
f (r − ri )
n
X
Din definiţia mediei, rezultă (r̄ − r1 ) + . . . + (r̄ − rn ) = 0, deci (r̄ − rk ) = 0. Putem
k=1
atunci scrie
n n n  0 
g 0 (r) X f 0 (r − rk ) X X f (r − rk )
0= = −c (r − rk ) = − c(r − rk ) .
g(r) k=1
f (r − rk ) k=1 k=1
f (r − rk )

Punem condiţia ca termenul general al sumei să se anuleze. Aceasta conduce la ecuaţia
diferenţială
f 0 (x)
= cx
f (x)
x2
c
cu soluţia f (x) = ke 2 . Să determinăm constantele k şi c, astfel ca f (x) să fie o densitate
1
de probabilitate. Punând condiţia (3.10), găsim c < 0, k > 0. Dacă notăm σ 2 = − ,
c
1
găsim k = √ σ şi

1 − x2
f (x) = √ e 2σ 2
.
2πσ
Deci erorile accidentale de măsurare se repartizează după legea N (0, σ 2 ). Constanta
1
h = √2πσ se numeşte precizia măsurătorii.

Exemplul 3.2.4 O variabilă aleatoare X este repartizată normal N (0, σ 2 ). Dat un


interval (α, β), cu α < 0, β > 0, să determinăm valoarea σ, astfel ca probabilitatea
P ({X ∈ (α, β)}) să fie maximă. Are loc evident
Z β Z α !
β α 1 σ t2 σ t2
P ({α < X < β}) = Φ( ) − Φ( ) = √ e− 2 dt − e− 2 dt .
σ σ 2π 0 0

Anulăm derivata ı̂n raport cu σ a integralei cu parametru şi găsim


 
1 − β2
2
β2 2
− α2 α2
√ e 2σ (− 2 ) − e 2σ (− 2 ) = 0.
2π σ 2σ

Deducem s
β 2 − α2
σ= .
2(ln β − ln |α|)

În practică apar des situaţii ı̂n care o variabilă aleatoare continuă este suma dintre
o variabilă aleatoare discretă şi o variabilă aleatoare continuă. Ca aplicaţie a formulei
probabilităţii totale se poate deduce densitatea de probabilitate.
Variabile aleatoare continue 95

Exemplul 3.2.5 Fie X o variabilă aleatoare discretă care are repartiţia:


 
xi
X: , i = 1, . . . n
pi
şi Y o variabilă aleatoare continuă care are densitatea de probabilitate f (x). Să deter-
minăm densitatea de probabilitate a variabilei aleatoare Z = X + Y , dacă X şi Y sunt
independente. Considerăm sistemul complet de evenimente Ai = {X = xi }, i = 1, . . . n
şi să exprimăm funcţia de repartiţie a variabilei aleatoare Z.
n
!
[
FZ (x) = P ({X + Y < x}) = P ({X + Y < x} ∩ Ai ) =
i=1
n
X n
X
= P ({Y + xi < x})P (Ai ) = pi P ({Y < x − xi }).
i=1 i=1
Prin derivare găsim
n
X
fZ (x) = pi fY (x − xi ).
i=1

Exemplul 3.2.6 O variabilă aleatoare continuă are densitatea de probabilitate f1 (x) cu


probabilitatea p1 şi densitatea de probabilitate f2 (x) cu probabilitatea p2 , cu p1 + p2 =
1. Găsiţi expresia densităţii de probabilitate şi a funcţiei de repartiţie a variabilei X.
Considerăm sistemul complet de evenimente Ai , i = 1, 2, unde evenimentul Ai reprezintă
faptul că X are densitatea de probabilitate fi . Atunci funcţia de repartiţie este dată de
F (x) = P ({X < x}) = P (A1 )P ({X < x}|A1 ) + P (A2 )P ({X < x}|A2 ) =
= p1 F1 (x) + p2 F2 (x).
Funcţia de densitate este atunci
f (x) = p1 f1 (x) + p2 f2 (x).

Densităţi de probabilitate condiţionate. Fie X o variabilă aleatoare continuă şi


A ∈ K, cu probabilitatea P (A) 6= 0. Presupunem că X are densitatea de probabilitate f ,
atunci densitatea de probabilitate a lui X, condiţionată de A este dată ı̂n punctele ei de
continuitate de derivata funcţiei de repartiţie condiţionată
f (x|A) = F 0 (x|A).
1. Dacă A = {X < a}, prin derivarea formulei (3.6) se obţine

 f (x)
, dacă x 6 a,
f (x|A) = F (a) (3.15)

0, dacă x > a.
2. Dacă A = {a 6 X < b} prin derivarea relaţiei (3.7) găsim

 f (x)
, dacă a < x 6 b,
f (x|{a 6 X < b} = F (b) − F (a) (3.16)

0, ı̂n rest.
96 Variabile aleatoare continue

Exemplul 3.2.7 Fie X : N (m, σ 2 ). Să determinăm f (x|{|X − m| 6 kσ}). Observăm că
P ({|X − m| 6 kσ}) = 2Φ(k) şi ı̂nlocuim ı̂n (3.16). Deci

 (x − m)2

 1 −
 √ e 2σ 2 , dacă |x − m| 6 kσ
f (x|{|X − m| 6 kσ}) = 2πσ2Φ(k) .




0, ı̂n rest
Exemplul 3.2.8 Fie T variabila aleatoare care dă timpul de funcţionare până la prima
defectare. Să determinăm F (x|{T > t}) şi f (x|{T > t}). Observăm că P ({T > t}) =
1 − F (t), probabilitate care va fi definită ca funcţie de fiabilitate ı̂n Capitolul 3.7. Găsim


 F (x) − F (t)
 , dacă x > t,
1 − F (t)
F (x|{T > t}) =



0, dacă x < t.
f (x) f (x)
f (x|{T > t}) = =Z +∞ , x > t.
1 − F (t)
f (x)dx
t

Formula probabilităţii totale. Formula lui Bayes.


Vom da versiunea continuă a formulelor prezentate ı̂n Capitolul 1.6. Considerăm
evenimentul {X = x} unde X este o variabilă aleatoare continuă, deci admite funcţie de
repartiţie continuă. Atunci avem P ({X = x}) = 0. În unele situaţii putem totuşi defini
P (A|{X = x}), ı̂n sensul existenţei următoarei limite

P (A|{X = x}) = lim P (A|{x 6 X < x + ∆x}) =


∆x→0
(F (x + ∆x|A) − F (x|A))P (A) f (x|A)P (A)
= lim = .
∆x→0 F (x + ∆x) − F (x) f (x)
În şirul de egalităţi s-a folosit formula (3.8). Dacă integrăm pe IR relaţia
P (A|{X = x})f (x) = f (x|A)P (A)
obţinem Z Z
+∞ +∞
P (A|{X = x})f (x)dx = f (x|A)P (A)dx =
−∞ −∞
= P (A)(F (+∞|A) − F (−∞|A)) = P (A).
Relaţia obţinută se numeşte formula probabilităţii totale ı̂n cazul continuu şi este
Z +∞
P (A) = P (A|{X = x})f (x)dx. (3.17)
−∞
Formula lui Bayes ı̂n cazul continuu este
P (A|{X = x})f (x)
f (x|A) = R +∞ .
−∞
P (A|{X = x})f (x)dx
Variabile aleatoare continue 97

Exemplul 3.2.9 Densitatea de probabilitate a defectării unei valve radio ı̂n momentul
deschiderii este q(v). Voltajul V este aleator şi are repartiţie N (m, σ 2 ). Să găsim pro-
babilitatea evenimentului A, care semnifică faptul că la momentul deschiderii valva s-a
defectat. Vom folosi formula (3.17)
Z +∞ Z +∞
1 (v−m)2
P (A) = q(v)f (v)dv = √ q(v)e− 2σ2 dv.
−∞ 2πσ −∞

3.3 Funcţia de repartiţie multidimensională. Trans-


formări
Fie {E, K, P } un câmp borelian de probabilitate şi X1 , . . . , Xn , variabile aleatoare.

Definiţia 3.3.1 Funcţia notată (X1 , . . . , Xn ) : E → IRn , definită prin

(X1 , . . . , Xn )(e) = (X1 (e), . . . , Xn (e)),

se numeşte variabilă aleatoare n-dimensională.

Pentru (x1 , . . . , xn ) ∈ IRn , notăm


n
\
{X1 < x1 , X2 < x2 , . . . , Xn < xn } = {Xi < xi }
i=1

şi observăm că acesta este un element al lui K.

Definiţia 3.3.2 Funcţia F : IRn → IR, definită prin

F (x1 , x2 , . . . , xn ) = P ({X1 < x1 , . . . , Xn < xn }),

se numeşte funcţie de repartiţie n dimensională.

Fără a intra ı̂n detalii de demonstraţie, amintim că pentru funcţia de repartiţie n-dimen-
sională au loc proprietăţile:
1. F este nedescrescătoare ı̂n fiecare argument;
2. F este continuă la stânga ı̂n fiecare argument;
3. F (+∞, . . . , +∞) = 1;
4. Pentru orice k = 1, . . . n, are loc

lim F (x1 , . . . , xk , . . . , xn ) = 0, ∀x1 . . . , xk−1 , xk+1 . . . , xn ∈ IR.


xk →−∞

Numai satisfacerea acestor proprietăţi, nu implică faptul că F este funcţie de repartiţie,
pentru o variabilă aleatoare n-dimensională. Pentru ai , bi i = 1, . . . n se poate arăta că

P ({a1 6 X1 < b1 , . . . , an 6 Xn < bn }) =


98 Variabile aleatoare continue

n
X n
X n
X
= F (b1 , . . . , bn ) − pi + pij − pijk + . . . + (−1)n F (a1 , . . . an ), (3.18)
i=1 i<j i<j<k

unde pij...k = F (c1 , c2 , . . . , cn ) , ci = ai , cj = aj , . . . , ck = ak , restul valorilor fiind cs = bs .


Să exemplificăm ı̂n cazul n = 2. Pentru aceasta evaluăm
P ({a1 6 X1 < b1 , a2 6 X2 < b2 }) = P ({X1 < b1 , X2 < b2 })−
−P ({X1 < a1 , X2 < b2 }) − P ({X1 < b1 , X2 < a2 }) + P ({X1 < a1 , X2 < a2 }) =
= F (b1 , b2 ) − F (a1 , b2 ) − F (b1 , a2 ) + F (a1 , a2 ),
a căror justificare este uşor de constatat ı̂n Figura 3.6.
Vom da un exemplu de funcţie F care satisface proprietăţile 1-4, dar nu este funcţie
de repartiţie.
Exemplul 3.3.1 Să definim

0, dacă x1 6 0 sau x1 + x2 6 1 sau x2 6 0,
F (x1 , x2 ) =
1, ı̂n rest.

Aceasta va satisface condiţiile 1-4, dar dacă ı̂n formula precedentă luăm a1 = a2 = 21 , b1 =
b2 = 1, găsim F (1, 1) − F (1, 21 ) − F ( 12 , 1) + F ( 12 , 12 ) < 0, care nu poate fi probabilitatea
unui eveniment.
Pentru ca F , o funcţie ce satisface condiţiile 1-4, să fie funcţie de repartiţie mai trebuie
ı̂ndeplinită condiţia ∀ai , bi ∈ IR, i = 1, . . . n, membrul al doilea al formulei (3.18) este
pozitiv.
La fel ca ı̂n cazul unidimensional, vom considera o clasă de variabile aleatoare pen-
tru care există o funcţie pozitivă şi continuă cu excepţia unui număr finit de puncte
f (x1 , . . . , xn ), astfel ca
Z x1 Z xn
F (x1 , . . . , xn ) = ... f (y1 , . . . , yn )dy1 . . . dyn .
−∞ −∞
Vom numi această funcţie densitate de probabilitate n-dimensională. Dacă funcţia de
repartiţie este continuă, variabila aleatoare va fi numită continuă . Densitatea de proba-
bilitate se caracterizează prin
Z ∞ Z ∞
... f (y1 , . . . , yn )dy1 . . . dyn = 1. (3.19)
−∞ ∞

Mai observăm că ı̂n punctele de continuitate ale funcţiei f are loc
∂ n F (x1 , . . . , xn )
f (x1 , . . . , xn ) = .
∂x1 . . . ∂xn
Dacă variabila aleatoare n-dimensională are densitate de probabilitate, probabilitatea din
formula (3.18) poate fi calculată astfel:
Z b1 Z bn
P ({a1 6 X1 < b1 , . . . , an 6 Xn < bn }) = dx1 . . . f (x1 , . . . , xn )dxn .
a1 an
Variabile aleatoare continue 99

În general, dacă D ⊂ IRn este un domeniu arbitrar, probabilitatea ca variabila aleatoare
n-dimensională să ia valori ı̂n D este dată de formula
Z Z
P ({(x1 , . . . , xn ) ∈ D}) = . . . f (x1 , . . . , xn )dx1 . . . dxn .
D

Definiţia 3.3.3 Funcţiile definite de formulele


Z xi Z ∞ Z ∞
FXi (xi ) = du ... f (x1 , . . . , xi−1 , u, xi+1 , . . . , xn )dx1 . . . dxn
−∞ −∞ −∞

se numesc funcţii marginale de repartiţie , iar derivatele lor, date de formulele

fXi (xi ) = FX0 i (xi ) =


Z ∞ Z ∞
= ... f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn )dx1 . . . dxi−1 dxi+1 . . . dxn
−∞ −∞

se numesc densităţi marginale de probabilitate.


În particular pentru n = 2, alegând notaţii mai convenabile, densităţile marginale şi
funcţiile marginale de repartiţie, sunt date de formulele:
Z x Z ∞ Z y Z ∞
FX (x) = du f (u, v)dv, FY (y) = dv f (u, v)du,
−∞ −∞ −∞ −∞
Z ∞ Z ∞
fX (x) = f (x, v)dv, fY (y) = f (u, y)du.
−∞ −∞

Fie (X1 , . . . , Xn ) o variabilă aleatoare continuă. Variabilele aleatoare Xi sunt independente


dacă şi numai dacă ∀xi1 , . . . , xik ∈ IR, k = 1, . . . , n, are loc

P ({Xi1 < xi1 , . . . , Xik < xik }) = P ({Xi1 < xi1 }) . . . P ({Xik < xik }).

Această afirmaţie se deduce imediat din Propoziţia 3.1.3. În particular pentru n = 2,
condiţia revine la
F (x, y) = FX (x)FY (y).
Dacă variabilele considerate au densităţi de probabilitate, condiţia de mai sus este echiva-
lentă cu
f (x, y) = fX (x)fY (y). (3.20)

Exemplul 3.3.2 Repartiţia uniformă n-dimensională are densitatea de probabilitate dată


de 
k, dacă (x1 , . . . , xn ) ∈ D
f (x1 , . . . , xn ) = ,
0, ı̂n rest
unde D este un domeniu din IRn , mărginit, iar k este astfel ales ı̂ncât să aibă loc (3.19),
deci
1
k=R R .
. . . D dx1 . . . dxn
100 Variabile aleatoare continue

În particular pentru n = 2 şi D = [a, b] × [c, d], avem



 1
, dacă (x, y) ∈ D,
f (x, y) = (b − a)(d − c)
 0, ı̂n rest.

Să determinăm densităţile marginale.


Z Z ( 1
∞ d
1 , ∀x ∈ [a, b]
fX (x) = f (x, v)dv = dv = b−a
−∞ c (b − a)(d − c) 0, ı̂n rest

şi analog, 
 1
 , ∀x ∈ [c, d],
fY (y) = d−c


0, ı̂n rest
Deci variabilele aleatoare marginale X şi Y cu densităţile marginale fX , respectiv fY sunt
independente, deoarece este satisfăcută (3.20).

Transformări de variabile aleatoare.


Fie (X1 , . . . , Xn ) o variabilă aleatoare pe câmpul borelian {E, K, P }. Considerăm o
transformare inversabilă ı̂ntre două domenii ∆, D ⊂ IRn , deci o funcţie vectorială de mai
multe variabile


 x1 = φ1 (y1 , . . . , yn )
.. (x1 , . . . , xn ) ∈ D, (y1 , . . . , yn ) ∈ ∆
 .
 x = φ (y , . . . , y )
n n 1 n

şi care satisface condiţiile:


1
1. φ1 , . . . , φn sunt funcţii reale de clasă C (∆);
∂φ1 ∂φ1
. . .
∂y1 ∂y
D(φ1 , . . . , φn ) . .
n
2. J(y1 , . . . , yn ) = = .. . . . .. 6= 0 pe ∆.
D(y1 , . . . , yn ) ∂φn
∂φn
∂y . . .
1 ∂yn
În aceste condiţii, compunerea dintre (X1 , . . . , Xn ) şi inversa transformării este tot
o variabilă aleatoare, pe care o notăm (Y1 , . . . , Yn ). Presupunem că ambele variabile
aleatoare au densităţi de probabilitate, pe care le notămfX1 ...Xn şi fY1 ...Yn . Folosind schim-
barea de variabile ı̂n integrala multiplă, obţinem
Z Z
... fX1 ...Xn (x1 , . . . , xn )dx1 . . . dxn =
D
Z Z
= ... fX1 ...Xn (φ1 (y1 , . . . , yn ), . . . , φn (y1 , . . . , yn )|J(y1 , . . . , yn )|dy1 . . . dyn , (3.21)

Variabile aleatoare continue 101

care se interpretează astfel: probabilitatea ca variabila aleatoare (X1 , . . . , Xn ) să ia valori


ı̂n domeniul D, coincide cu probabilitatea ca (Y1 , . . . , Yn ) să ia valori ı̂n domeniul ∆.
Atunci densitatea de probabilitate pentru variabila aleatoare (Y1 , . . . , Yn ) este dată de

fY1 ...Yn (y1 , . . . , yn ) =

= fX1 ...Xn (φ1 (y1 , . . . , yn ), . . . , φn (y1 , . . . , yn )|J(y1 , . . . , yn )|. (3.22)

Caz particular. Pentru n = 1, considerăm transformarea x = φ(y) unde φ este de


clasă C 1 (D), D ⊂ IR, inversabilă. Formula precedentă devine


fY (y) = fX (φ(y)) . (3.23)
dy

Exemplul 3.3.3 Dacă X este o variabilă aleatoare şi facem transformarea Y = aX + b,


unde a, b ∈ IR, a 6= 0, atunci folosind relaţia (3.23) găsim
 
y−b 1
fY (y) = fX .
a |a|

În particular, dacă X : N (m, σ 2 ), să determinăm densitatea de probabilitate a variabilei


aleatoare Y = aX + b, a 6= 0, ı̂nlocuind mai sus
y−b
( −m)2
1 1
e−
a
fY (y) = √ 2σ 2 =
2πσ |a|

1 (y−(am+b))2
=√ e− 2a2 σ 2 .
2π|a|σ
deci Y este o variabilă repartizată N (am + b, a2 σ 2 ). Deci prin transformarea liniară a unei
variabile aleatoare normale se obţine tot o variabilă normală. De aici se deduce imediat
că, dacă X : N (m, σ 2 )
X −m
: N (0, 1).
σ
Uneori este comod să găsim densitatea de probabilitate calculând funcţia de repartiţie a
variabilei aleatoare obţinute prin transformare, ca ı̂n următorul exemplu.

Exemplul 3.3.4 Dacă X : N (m, σ 2 ) să determinăm densitatea variabilei aleatoare eX .


Notăm Y = eX . Pentru y > 0, să calculăm

FY = P ({Y < y}) = P ({eX < y}) = P ({X < ln y}).

Prin derivare găsim

1 (ln y−m)2
fY (y) = FY0 (y) = FX0 (ln y) =√ e− 2σ 2 .
2πσ
Această repartiţie se numeşte lognormală.
102 Variabile aleatoare continue

Exemplul 3.3.5 Erorile de măsurare pentru două mărimi sunt X, Y independente şi
repartizate uniform pe (0, 1). Să determinăm densităţile marginale ale sumei şi diferenţei
erorilor. Vom particulariza cazul general (făcând o schimbare convenabilă de notaţii suma
şi diferenţa erorilor sunt variabile aleatoare definite prin

U =X +Y

V = X − Y.
Inversa transformării este
1
x = φ1 (u, v) = (u + v)
2
1
y = φ2 (u, v) = (u − v)
2
iar iacobianul J(u, v) = − 12 ; reprezentăm ı̂n Figurile 3.7 şi 3.8 domeniile D şi ∆. Din
ipoteza de independenţă rezultă

fXY (x, y) = fX (x)fY (y).

Deci fU V (u, v) = 1| − 1/2|, dacă (u, v) ∈ ∆ şi 0 ı̂n rest. Densitatea marginală este dată
de Z ∞
fU (u) = fU V (u, v)dv.
−∞

Pentru calculul ei distingem


Z u cazurile
dv
1. 0 6 u 6 1, fU (u) = = u;
2
Z−u2−u
dv
2. 1 6 u 6 2, fU (u) = = 2 − u.
u−2 2
Deci 
 u, dacă 0 6 u 6 1,
fU (u) = 2 − u, dacă 1 6 u 6 2,

0, ı̂n rest.
şi analog 

 v+1
 2 ,
 dacă − 1 6 v 6 0,
fV (v) = −v + 1

 , dacă 0 6 v 6 1,
 0, 2

ı̂n rest.

Exemplul 3.3.6 Un dispozitiv are două componete ale căror durate de viaţă sunt vari-
abile aleatoare independente, notate X şi Y , cu densităţile
( 1 
 1
, dacă x > 1, , dacă y > 1,
fX (x) = x 2 fY (y) = y2
0, ı̂n rest  0, ı̂n rest.
Variabile aleatoare continue 103

O măsură pentru calitatea funcţionării dispozitivului este U = XY . Să determinăm
densitatea de probabilitate a lui U . Facem schimbarea de variabile
 √
U = XY
V =X

definită pe domeniul D cu inversa 


x=v
2
y = uv
2u
definită pe domeniul ∆ şi având iacobianul J(u, v) = − . Din condiţia de independenţă
v
 1
x2 y 2
, dacă x, y > 1,
fXY (x, y) =
0, ı̂n rest,

iar
2
fU V (u, v) = .
u3 v
Reprezentăm grafic cele două domenii.
Densitatea marginală este
Z ∞ Z u2
2 ln u
fU (u) = fU V (u, v)dv = 3
dv = 4 3 , ∀u > 1.
−∞ 1 uv u

Exemplul 3.3.7 (Limitatorul). Fie funcţia



 −b, dacă x 6 −b,
g(x) = x, dacă − b < x 6 b,

b, dacă x > b.

Să determinăm funcţia de repartiţie a variabilei aleatoare Y = g(X), unde X este o


variabilă aleatoare cu funcţia de repartiţie FX .
Dacă y 6 −b evenimentul g(X) < y nu se realizează pentru nici un x, deci FY (y) = 0.
Dacă −b < y 6 b, FY (y) = FX (y).
Dacă b < y, FY (y) = 1.

Exemplul 3.3.8 Repartiţia normală n-dimensională. Considerăm funcţia definită de



det A −1/2(X−M )t A(X−M )
f (x1 , . . . , xn ) = e , (3.24)
(2π)n/2

unde A = (aij )i,j=1...n este o matrice simetrică, deci A = At şi care are proprietatea că
forma pătratică
XX
(X − M )t A(X − M ) = aij (xi − mi )(xj − mj )
i j
104 Variabile aleatoare continue

este pozitiv definită. X şi M reprezintă:


   
x1 m1
   ..  .
X =  ...  , M =  . 
xn mn

Presupunem pentru ı̂nceput că m1 = . . . = mn = 0. Reamintim că ı̂n acest caz există o
matrice ortogonală H (cu proprietatea HH t = In , unde In este matricea unitate), pentru
care forma pătratică are forma canonică
n
X
X t AX = λi yi2 ,
i=1

unde λi sunt valorile proprii ale lui A, care ı̂n cazul nostru sunt strict pozitive. După cum
ştim det A = λ1 . . . λn . Să verificăm satisfacerea condiţiei (3.19). Facem schimbarea de
variabile X = HY şi observăm că determinantul funcţional

D(x1 , . . . , xn )

D(y1 , . . . , yn ) = det H = 1

deoarece H este o matrice ortogonală. Avem atunci


n
X
Z Z − 12 aij xi xj
... e i=1 dx1 . . . dxn =
IRn

n
X
Z Z − 12 λi yi2 n Z
Y ∞
1 2
= ... e i=1 det Hdy1 . . . dyn = e− 2 λi yi dyi .
IRn i=1 −∞

Facem ı̂n ultima integrală substituţia yi = √zi şi găsim


λi

Z ∞ Z ∞

− 12 λi yi2 1 z2
− 2i 2π
e dyi = √ e dzi = √ .
−∞ λi ∞ λi
Efectuând calculele obţinem
n r
Y 2π (2π) 2 (2π) 2
n n

=√ =√ .
i=1
λi λ1 . . . l n det A

Dacă revenim la cazul general, prin substituţia X − M = Y , situaţia se reduce la satis-


facerea condiţiei m1 = . . . = mn = 0.

Semnificaţia coeficienţilor matricei A şi unele proprietăţi vor fi studiate ı̂n Capitolul 3.5.
Vom da cazuri particulare ale legii normale.
Variabila aleatoare normală bidimensională.
Variabile aleatoare continue 105

Dacă variabilele marginale X, Y sunt independente, atunci densitatea de probabilitate


bidimensională are o formă foarte simplă
 
2
(x−mx )2 (y−my )
1 −1 2 + 2
f (x, y) = e 2 σx σy
. (3.25)
2πσx σy

Dacă D = [a, b] × [c, d] ⊂ IR2 , atunci


  
b − mx a − mx d − my c − my
P ({(X, Y ) ∈ D}) = Φ( ) − Φ( ) Φ( ) − Φ( ) .
σx σx σy σy
Să considerăm un domeniu Dk delimitat de elipsa de egală probabilitate, adică elipsa ı̂n
ale cărei puncte densitatea de probabilitate este constanta k > 0. Elipsa are ecuaţia
(x−mx )2 (y−my )2
2
σx
+ σy2
= k 2 . Observăm că semiaxele elipsei sunt a = kσx , b = kσy . Atunci are
loc
k2
P ({(X, Y ) ∈ Dk }) = 1 − e− 2 (3.26)
Aceasta rezultă imediat dacă facem ı̂n integrala dublă schimbarea de variabile de forma

x − mx = ρσx cos θ
0 < ρ 6 k, θ ∈ [0, 2π).
y − my = ρσy sin θ
După efectuarea calculelor obţinem
Z Z Z 2π Z k
σx σy ρ2
f (x, y)dxdy = dθ e− 2 ρdρ,
Dk 2πσx σy 0 0

de unde (3.26).

Exemplul 3.3.9 Repartiţia Rayleigh Dacă σx = σy = σ şi mx = my = 0, distanţa R


a unui ”punct aleator” (X, Y ) la origine are repartiţia Rayleigh. Înlocuind ı̂n (3.25),
densitatea de probabilitate are forma
1 − 12 x2 +y 2
f (x, y) = e σ2 .
2πσ 2
Facem schimbarea de variabile

x = r cos θ
r > 0 θ ∈ [0, 2π)
y = r sin θ

şi densitatea de probabilitate a variabilei (R, Θ) este


r − r22
fRΘ (r, θ) = e 2σ ,
2πσ 2
iar densitatea marginală a variabilei R este
r − r22
f (r) = e 2σ .
σ2
106 Variabile aleatoare continue

Variabila aleatoare normală tridimensională.


Dacă variabilele marginale X, Y, Z sunt independente, densitatea de probabilitate este
 
(x−mx )2 (y−my )2 (z−mz )2
1 − 12 2 + 2 + 2
f (x, y, z) = 3 e σx σy σz
.
(2π) 2 σx σy σz

La fel ca ı̂n cazul bidimensional probabilitatea ca variabila (X, Y, Z) să ia valori ı̂ntr-
un elipsoid Dk , pe a cărui suprafaţă densitatea ia valori constante, elipsoid de egală
probabilitate, este r
2 − k2
P ({(X, Y, Z) ∈ DK }) = 2Φ(k) − ke 2 .
π
Elipsoidul are semiaxele a = kσx , b = kσy c = kσz .
Operaţii cu variabile aleatoare continue.
Vom deduce formule de calcul pentru densităţile de probabilitate ale sumei, dife-
renţei, produsului şi câtului de variabile aleatoare continue. Vom alege de fiecare dată
transformări convenabile şi vom utiliza formula (3.22).
Suma de variabile aleatoare continue.
Fie (X, Y ) o variabilă aleatoare continuă cu densitatea de probabilitate fXY . Con-
siderăm transformarea: 
u=x+y
,
v=x
care admite inversa 
x=v
y =u−v
şi iacobianul J(u, v) = −1. Din (3.22) deducem că densitatea de probabilitate a variabilei
aleatoare (U, V ) este fU V (u, v) = fXY (v, u − v)| − 1|. Luând densitatea marginală, găsim
Z ∞
fU (u) = fXY (v, u − v)dv. (3.27)
−∞

Dacă X şi Y sunt independente fXY (v, u − v) = fX (v)fY (u − v) şi densitatea sumei este
produsul de convoluţie al densităţilor fX , fY , adică
Z ∞
fU (u) = fX (v)fY (u − v)dv. (3.28)
−∞

Exemplul 3.3.10 Să determinăm suma de variabile aleatoare independente repartizate


1
uniform pe intervalul (a, b). Densitatea de probabilitate are valoarea b−a pe intervalul
[a, b] şi 0 ı̂n rest. Vom folosi (3.28).
Z +∞ Z x−b
1
fX+Y (x) = f (y)f (x − y)dy = f (x − y)dy.
−∞ b−a x−a
Variabile aleatoare continue 107

In ultima integrală facem schimbarea de variabilă x − y = t, şi obţinem


Z x−a
1
fX+Y (x) = f (t)dt.
b − a x−b
Comparı̂nd x − a şi x − b cu a şi b obţinem

 0, x < 2a

 x−2a ,
(b−a)2
2a > x < a + b
fX+Y = 2b−x .

 (b−a) 2, a + b 6 x < 2b

0, x > 2b

Graficul densităţii de probabilitate este dat de Figura 3.11.

Diferenţă de variabile aleatoare continue.


Considerăm transformarea 
u=x−y
v=x
cu inversa 
x=v
,
y =v−u
iar fU V (u, v) = fXY (v, v − u). Densitatea marginală a diferenţei este
Z ∞
fU (u) = fXY (v, v − u)dv,
−∞

iar ı̂n caz de independenţă


Z ∞
fU (u) = fX (v)fY (v − u)dv. (3.29)
−∞

Produs de variabile aleatoare.


Considerăm transformarea 
u = xy
,
v=x
cu inversa 
x=v
y = uv
şi iacobianul J(u, v) = v1 . Densitatea de probabilitate este
u 1
fU V (u, v) = fXY (v, ) .
v |v|
Deducem Z ∞
u dv
fU (u) = fXY (v, ) ,
−∞ v |v|
108 Variabile aleatoare continue

iar ı̂n caz de independenţă


Z ∞  u  dv
fU (u) = fX (v)fV . (3.30)
−∞ v |v|

Câtul a două variabile aleatoare continue.


Considerăm transformarea 
u = xy
v=y
cu inversa 
x = uv
y=v
şi iacobianul J(u, v) = v. Se obţine densitatea de probabilitate
Z ∞
fU (u) = fXY (uv, v)|v|dv,
−∞

care ı̂n caz de independenţă devine


Z ∞
fU (u) = fX (uv)fY (v)|v|dv. (3.31)
−∞

Probabilităţi şi funcţii de repartiţie condiţionate.


Dacă X, Y sunt variabile aleatoare discrete, noţiunile de probabilităţi condiţionate
au fost definite prin ı̂n Capitolul 2.4. Fie X este o variabilă aleatoare discretă, iar Y o
variabilă aleatoare continuă; definim funcţia de repartiţie a lui Y condiţionată de X prin

P ({Y < y, X = xk })
FY (y|xk ) =
P ({X = xk })

dacă P ({X = xk }) > 0. Dacă funcţia de repartiţie condiţionată este derivabilă, definim
densitatea de probabilitate prin formula

d
fY (y|xk ) = FY (y|xk ).
dy

Pentru A ∈ K , are loc


Z
P ({Y ∈ A|X = xk }) = fY (y|xk )dy.
A

În cazul ı̂n care X, Y sunt independente, se obţin imediat

FY (y|x) = FY (y); fY (y|x) = fY (y).


Variabile aleatoare continue 109

Exemplul 3.3.11 Într-un canal de comunicaţie intrarea este o variabilă X, care poate
lua valorile +1 volt , −1 volt cu aceeaşi probabilitate. Ieşirea Y = X + N unde N este
”zgomotul” ce poate fi considerat o variabilă aleatoare repartizată uniform pe intervalul
(−2, 2). Să determinăm probabilitatea P ({X = 1, Y < 0}).
Folosind formula probabilităţilor condiţionate, avem
P ({X = 1, Y < y}) = P ({Y < y}|{X = 1})P ({X = 1}) = FY (y|1)P ({X = 1}).
Funcţia de repartiţie a lui Y condiţionată de {X = 1} este
FY (y|1) = P ({N + 1 < y}) = P ({N < y − 1}) = FN (y − 1),
unde FN este funcţia de repartiţie a variabilei uniforme, care are expresia

 0, x 6 −2,
x+2
FN (x) = , −2 6 x 6 2,
 4
1, 2 < x.

Deci FY (y|1) = P ({Y < y|X = 1}) = y+1 4


, −1 6 y 6 3, iar probabilitatea căutată este
11 1
astfel P ({X = 1}|{Y < 0)}) = 4 2 = 8 .
Fie (X, Y ) o variabilă aleatoare bidimensională continuă cu densitatea de probabilitate
fXY continuă şi fX 6= 0 densitatea marginală continuă. Definim funcţia de repartiţie a
variabilei Y condiţionată de {X = x} prin limita următoare, dacă există

R y R x+h
P ({Y < y, x 6 X < x + h}) −∞ x
fXY (x0 , y 0 )dx0 dy 0
FY (y|x) = lim = R x+h .
h→0 P ({x 6 X < x + h}) fX (x0 )dx0
x

Folosind teoreme de medie pentru cele două integrale, găsim


Ry
fXY (x, y 0 )dy 0
FY (y|x) = −∞ .
fX (x)
Prin derivare obţinem densitatea de probabilitate
fXY (x, y)
fY (y|x) = . (3.32)
fX (x)
Dacă X, Y sunt independente, au loc
fY (y|x) = fY (y), FY (y|x) = FY (y).
Analog se deduce Rx
−∞
fXY (x0 , y)dx0
FX (x|y) = .
fY (y)
Prin derivare obţinem densitatea de probabilitate condiţionată
fXY (x, y)
fX (x|y) = .
fY (y)
110 Variabile aleatoare continue

Exemplul 3.3.12 Fie variabila aleatoare (X, Y ) cu densitatea


 −x −y
2e e , 0 6 y 6 x < +∞,
fXY (x, y) =
0, ı̂n rest.
Să determinăm densităţile de probabilitate condiţionată. Pentru ı̂nceput aflăm densităţile
marginale Z x
fX (x) = 2e−x e−y dy = 2e−x (1 − e−x ), 0 6 x < +∞
0
şi Z +∞
fY (y) = 2e−x e−y dx = 2e−2y , 0 6 y < +∞.
y
Folosind formulele precedente, avem
2e−x e−y
fX (x|y) = = e−(x−y) , y 6 x
2e−2y
şi
2e−x e−y e−y
fY (y|x) = −x = , 0 6 y 6 x.
2e (1 − e−x ) 1 − e−x
Formula probabilităţii totale şi formula lui Bayes se pot generaliza şi ı̂n acest caz. Relaţia
(3.32) poate fi scrisă sub forma
fXY (x, y) = fY (y|x)fX (x)
şi aplicând definiţia probabilităţii marginale, obţinem formula probabilităţii totale:
Z +∞
fY (y) = fY (y|x)fX (x)dx
−∞

şi formula lui Bayes


fX (x|y)fY (y)
fY (y|x) = .
fX (x)

În practică intervin şi alte tipuri de probabilităţi condiţionate. Lăsăm ca exerciţii,
stabilirea următoarelor formule. Dacă evenimentul ce condiţionează este {X < x} şi
FX (x) 6= 0 avem

FXY (x, y)
FY (y|{X < x}) = ,
FX (x)
Rx
f (x0 , y)dx0
−∞ XY
fY (y|{X < x}) = R +∞ R x .
−∞ −∞ XY
f (x0 , y 0 )dx0 dy 0
Dacă evenimentul care condiţionează este {x1 6 X < x2 } şi FX (x1 ) 6= FX (x2 ) avem

FXY (x2 , y) − FXY (x1 , y)


FY (y|{x1 6 X < x2 }) = ,
FX (x2 ) − FX (x1 )
R x2
fXY (x, y)dx
fY (y|{x1 6 X < x2 }) = x1 .
FX (x2 ) − FX (x1 )
Variabile aleatoare continue 111

3.4 Valori caracteristice ale unei variabile aleatoare

Medii şi momente.


Definiţia 3.4.1 Dacă X este o variabilă aleatoare având funcţia de repartiţie F (x), nu-
mim medie, numărul dat de Z ∞
M [X] = xdF (x). (3.33)
−∞

Integrala din (3.33) este de tip Riemann-Stieltjes (vezi Anexa 1). Dacă X are densitate de
probabilitate continuă f (x), atunci integrala din definiţie se reduce la o integrală Riemann
şi avem
Z ∞
M [X] = xf (x)dx (3.34)
−∞
Să observăm că integrala improprie din definiţie s-ar putea să nu fie convergentă. De
exemplu, variabila aleatoare repartizată Cauchy, cu densitatea de probabilitate
1
f (x) = , x ∈ IR
π(1 + x2 )
nu are medie, deoarece integrala (3.34) este divergentă. Reamintim că o variabilă aleatoare
este continuă, dacă are funcţia de repartiţie continuă. Mai general, dacă F are c1 , . . . , cn
puncte de discontinuitate (evident de prima speţă), media se obţine exprimând integrala
Stieltjes (vezi Anexa 1) ca o sumă dintre o integrală Riemann şi o sumă de salturi.
Z ∞
M [X] = f (x)dF (x) =
−∞
Z ∞ n
X
xf (x)dx + ck (F (ck + 0) − F (ck − 0)).
−∞ k=1

Exemplul 3.4.1 Să determinăm media variabilei aleatoare repartizate normal N (m,σ 2).
Facem ı̂n integrală schimbarea de variabilă y = x−m


şi obţinem
Z ∞ Z ∞ √
1 2√
M [X] = xf (x)dx = √ (m + 2σy)e−y 2σdy =
−∞ 2πσ −∞
Z ∞ r Z ∞
m −y 2 2 1 2
=√ e dy + σ (− e−y )0 dy = m,
π ∞ π ∞ 2
deoarece ultima integrală este 0.
Dacă X are media m şi admite densitate de probabilitate nesimetrică, cele două arii
determinate de x = m pot fi neegale. Astfel dacă X reprezintă o caracteristică numerică
studiată ı̂ntr-o colectivitate statistică, are ı̂nţeles afirmaţia că majoritatea indivizilor au
caracteristica X mai mică decât media.

Regăsim şi ı̂n cazul continuu aceleaşi proprietăţi pentru medie, pe care le-am ı̂ntâlnit
ı̂n cazul discret.
112 Variabile aleatoare continue

Propoziţia 3.4.1 Dacă X şi Y sunt variabile aleatoare ce au medii, atunci X + Y are
medie şi
M [X + Y ] = M [X] + M [Y ]. (3.35)

Demonstraţie. Vom demonstra această propoziţie ı̂n cazul particular ı̂n care X şi Y au
densităţi de probabilitate fX , respectiv fY . Folosind densitatea de probabilitate a sumei,
(3.27), avem
Z ∞ Z ∞ Z ∞ Z ∞
M [X + Y ] = xdx fXY (y, x − y)dy = dy xfXY (y, x − y)dx.
−∞ −∞ −∞ −∞

Ultima egalitate se datorează posibilităţii de a schimba ordinea de integrare. În ultima


integrală facem schimbarea de variabilă x − y = z şi obţinem
Z ∞ Z ∞ Z ∞ Z ∞
M [X + Y ] = dy (y + z)fXY (y, z)dz = ydy fXY (y, z)dz+
−∞ −∞ −∞ −∞
Z ∞ Z ∞ Z ∞ Z ∞
+ zdz fXY (y, z)dy = yfY (y)dy + zfX (z)dz = M [X] + M [Y ].
−∞ −∞ −∞ −∞

Proprietatea se poate extinde pentru un număr finit de variabile aleatoare.

Propoziţia 3.4.2 Dacă X şi Y sunt variabile aleatoare independente ce admit medii,
atunci produsul XY are medie şi

M [XY ] = M [X]M [Y ]. (3.36)

Demonstraţie. Vom folosi formula care defineşte densitatea produsului de variabile alea-
toare (3.30), presupunând că X şi Y au densităţi de probabilitate fX , fY .
Z ∞ Z ∞  
x dy
M [XY ]) = xdx fX (y)fY .
−∞ −∞ y |y|

În ultima integrală facem schimbarea x = yz şi inversăm ordinea de integrare. Găsim
Z ∞ Z ∞   Z ∞ Z ∞
x dx
M [XY ] = dy xfX (y)fY = dy yzfX (y)fY (z)dz =
−∞ −∞ y |y| −∞ −∞

= M [X]M [Y ].

Dacă o variabilă aleatoare nu are medie, alte caracteristici numerice care studiază
”tendinţa centrală” sunt modul şi mediana. Mediana a fost definită de (3.4) şi ea e-
xistă pentru orice variabilă aleatoare. De exemplu, ı̂n cazul repartiţiei Cauchy, datorită
simetriei faţa de axa Oy, mediana este me = 0, iar ı̂n cazul repartiţei normale este m.

Definiţia 3.4.2 mo se numeşte modul pentru variabila aleatoare X cu densitatea de pro-


babilitate f (x), dacă este un punct de maxim pentru f (x).
Variabile aleatoare continue 113

O variabilă aleatoare poate fi unimodală, bimodală etc, după cum densitatea de pro-
babilitate are unul sau mai multe puncte de maxim local.
Media unei transformări de variabilă aleatoare.
Dacă X este o variabilă aleatoare, iar y = Ψ(x) este o tansformare de clasă C 1 ,
inversabilă, media variabilei Y = Ψ(X) dacă există, este dată de formula
Z +∞
M [Y ] = Ψ(x)fX (x)dx. (3.37)
−∞

Aceasta rezultă dacă facem ı̂n integrala care defineşte media


Z +∞
M [Y ] = yfY (y)dy
−∞

schimbarea de variabilă şi aplicăm relaţia (3.23), unde Φ este transformarea inversă.

Exemplul 3.4.2 Dacă X : U (0, 2π), să determinăm media variabilei Y = cos X. Apli-
când formula (3.37), avem
Z 2π
1
M [Y ] = cos x dx = 0.
0 2π

Reamintim că dacă X este o variabilă aleatoare, numărul νk = M [X k ], k ∈ IN (dacă


există), se numeşte moment iniţial de ordin k. Momentul iniţial de ordin k se calculează
după formula Z ∞
νk = xk f (x)dx, (3.38)
−∞

dacă variabila aleatoare X are densitatea de probabilitate f . Această formulă rezultă


dacă aplicăm (3.37) variabilei Ψ(x) = X k . Observăm că ν1 = M [X].
Momentul centrat de ordin k se defineşte prin µk = M [(X − M [X])k ]. Dacă X are
densitatea de probabilitate f , atunci folosind din nou (3.37), momentul centrat are ex-
presia Z ∞
µk = (x − ν1 )k f (x)dx.
−∞

Între momentele iniţiale şi cele centrate au loc relaţiile următoare, care se demonstrează
fără dificultate:
Xk Xk
i i i
µk = (−1) Ck νk−i ν1 ; νk = Cki µk−i ν1i . (3.39)
i=0 i=0

Reamintim că µ2 se numeşte dispersie sau varianţă şi se notează D2 [X], iar D[X] se
numeşte abaterea medie pătratică. Aceste caracteristici au aceleaşi proprietăţi ca ı̂n cazul
discret, demonstraţia lor nefiind dificilă.
114 Variabile aleatoare continue

Exemplul 3.4.3 Să calculăm momentele centrate ale repartiţiei normale N (m, σ 2 ). A-
vem Z ∞
1 (x−m)2
µk = √ (x − m)k e− 2σ2 dx,
σ 2π −∞

ı̂n care facem schimbarea de variabilă x − m = 2σy , deci
√ Z
(σ 2)k ∞ k −y2
µk = √ y e dy.
π −∞

Dacă integrăm prin părţi obţinem


√  Z 
(σ 2)k 1 −y2 k−1 +∞ k − 1 ∞ k−2 −y2
µk = √ − e y −∞ + y e dy =
π 2 2 −∞
√ Z
(k − 1)(σ 2)k ∞ k−2 −y2
= √ y e dy = (k − 1)σ 2 µk−2 ,
2 π −∞

deoarece prima expresie se anulează la limită. Deducem din relaţia de recurenţă prece-
dentă 
µ2k+1 = 0
.
µ2k = (k − 1)!!σ 2k

În particular, pentru k = 2, obţinem D2 [X] = σ 2 . Regăsim, şi ı̂n cazul variabilelor
aleatoare continue, inegalitatea lui Cebâşev, cu ajutorul căreia putem aprecia gradul de
ı̂mprăştiere a valorilor variabilei; inegalitatea va constitui un important instrument de
lucru ı̂n cazul Legii numerelor mari (Capitolul 4).

Propoziţia 3.4.3 (Inegalitatea lui Cebâşev) Dacă variabila aleatoare X este continuă cu
media m şi dispersia σ 2 , atunci are loc

σ2
P ({|X − m| < }) > 1 − , ∀ > 0, (3.40)
2
sau echivalent
σ2
P ({|X − m| > }) < ∀ > 0.
2
Demonstraţie. Dispersia este dată de
Z ∞ Z m− Z m+
2 2 2
σ = (x − m) f (x)dx = (x − m) f (x)dx + (x − m)2 f (x)dx+
−∞ −∞ m−
Z +∞
+ (x − m)2 f (x)dx.
m+

Din faptul că x 6∈ (m − , m + ), rezultă (x − m)2 > 2 şi dispersia poate fi minorată prin
Z m− Z ∞ 
2 2
σ > f (x)dx + f (x)dx =
−∞ m+
Variabile aleatoare continue 115
 Z m+ 
2
= 1− f (x)dx ,
m−
R∞
deoarece −∞
f (x)dx = 1. Ultima paranteză se poate scrie

σ 2 > 2 (1 − P ({|X − m| < })),

care este echivalentă cu relaţia (3.40). .

Exemplul 3.4.4 Timpul mediu de răspuns al unui calculator este de 15 secunde pentru
o anumită operaţie, cu abaterea medie pătratică 3 secunde. Estimaţi probabilitatea ca
timpul de răspuns să se abată cu mai puţin de 5 secunde faţă de medie. Vom folosi
inegalitatea lui Cebâşev. Avem
9
P ({|X − 15| > 5}) 6 = 0, 36.
25
Reamintim că momentul absolut de ordin k pentru o variabilă aleatoare se defineşte prin
formula βk = M [|X|k ]. Dacă X are densitatea de probabilitate f , atunci momentul
absolut este dat de formula Z ∞
βk = |x|k fX (x)dx.
−∞

Observăm că existenţa momentelor absolute de ordin k, antrenează existenţa momentelor


iniţiale de ordin k, deoarece
Z ∞ Z ∞

x f (x)dx 6
k
|x|k f (x) < ∞,

−∞ −∞

iar din presupunerea făcută, a doua integrală este convergentă. De asemenea, dacă există
moment absolut de ordin k, există momente absolute de orice ordin l 6 k. Într-adevăr,
Z ∞ Z Z
l l
|x| f (x)dx = |x| f (x)dx + |x|l f (x)dx 6
−∞ 6
|x| 1 |x|>1

Z Z
l
6 |x| f (x)dx + |x|k f (x)dx.
6
|x| 1 |x|>1

Prima integrală este finită datorită domeniului de integrare, iar a doua din presupunerea
făcută.
Inegalitatea lui Cebâşev poate fi generalizată pentru momente absolute de orice ordin
k ∈ IN , ı̂n sensul următor: dacă variabila aleatoare X are moment absolut de ordin k,
atunci
M [|X − m|k ]
P ({|X − m| < }) > 1 − , ∀ > 0, (3.41)
k
sau echivalent
M [|X − m|k ]
P ({|X − m| > }) < .
k
116 Variabile aleatoare continue

Propoziţia 3.4.4 (Inegalitatea lui Schwarz) Dacă variabilele aleatoare X şi Y au mo-
mente absolute de ordin 2, atunci XY are moment absolut de ordin 2 şi
p
β2 (XY ) 6 β2 (x)β2 (y). (3.42)

Demonstraţie. Pentru orice λ ∈ IR, inegalitatea M [(|X| + λ|Y |)2 ] > 0 este evidentă.
Efectuând calculele avem

M [(X + λY )2 ] = λ2 M [X 2 ] + 2λM [|XY |] + M [Y 2 ] > 0,

şi folosind semnul funcţiei de gradul al doilea, inegalitatea precedentă este adevărată dacă
discriminantul ∆ 6 0, ceea ce revine la

M [|XY |2 ] 6 M [X 2 ]M [Y 2 ].

De unde, după extragerea radicalului găsim (3.42).


Obserăm că, ı̂n aceleaşi ipoteze, rezultă şi
p
|M [XY ]| 6 M [X 2 ]M [Y 2 ].

Definiţia 3.4.3 Fie X şi Y două variabile aleatoare pentru care există momentele ab-
solute de ordinul al doilea. Numărul definit de

Cov[X, Y ] = M [(X − M [X])(Y − M [Y ])]

se numeşte covarianţa variabilelor X şi Y , iar numărul dat de formula


Cov[X, Y ]
ρ[X, Y ] = , (3.43)
D[X]D[Y ]
dacă D[X] 6= 0, D[Y ] 6= 0, se numeşte coeficient de corelaţie. Variabilele aleatoare X şi
Y se numesc necorelate dacă

M [XY ] = M [X]M [Y ].

Observăm că dacă X şi Y sunt independente, din Propoziţia 3.4.2 rezultă că sunt necore-
late. Se pot da exemple care să ilustreze că reciproca afirmaţiei precedente nu este
adevărată, adică pot exista variabile aleatoare necorelate fără ca ele să fie independente.
Dacă X şi Y sunt variabile aleatoare continue care admit momente absolute de ordinul al
doilea, dispersia sumei se calculează după formula

D2 (X + Y ) = D2 (X) + D2 (Y ) + 2Cov[X, Y ].

Această formulă se generalizează uşor ı̂n cazul a n variabile. Din formula (3.43) rezultă
imediat că
ρ[X, X] = 1,
iar
ρ[X, Y ] = 0 dacă şi numai dacă X şi Y sunt necorelate.
Variabile aleatoare continue 117

Propoziţia 3.4.5 Pentru oricare două variabile X şi Y , care admit coeficient de corela-
ţie, este satisfăcută inegalitatea
|ρ[X, Y ]| 6 1. (3.44)
Demonstraţie. Considerăm variabilele aleatoare X 0 = X−M D[X]
[X]
,Y 0 = Y −M [Y ]
D[Y ]
şi le aplicăm
inegalitatea lui Schwarz. Rezultă
p
|M [X 0 Y 0 ]| 6 M [X 02 ]M [Y 02 ].

Rămâne să observăm că


M [(X − M (X))(Y − M (Y ))]
ρ[X, Y ] = M [X 0 , Y 0 ] =
D[X]D[Y ]
D2 [X]
şi că M [X 02 ] = D2 [X]
= 1. După efectuarea ı̂nlocuirilor, se obţine formula(3.44).

Propoziţia 3.4.6 Pentru oricare două variabile aleatoare, ce admit coeficient de corela-
ţie, următoarele afirmaţii sunt echivalente:
1. |ρ[X, Y ]| = 1;
2. există a, b ∈ IR, nesimultan nule şi c ∈ IR , astfel ı̂ncât relaţia aX + bY + c = 0 are
loc aproape sigur (adică P ({aX + bY + c = 0}) = 1).

Vom schiţa demonstraţia. Într-un sens afirmaţia este imediată; anume dacă are loc
aX +bY +c = 0 aproape sigur şi presupunem b 6= 0, găsim m, n ∈ IR astfel ca Y = mX +n.
Observăm imediat că 
1, dacă m > 0
ρ[X, Y ] =
−1, dacă m < 0.
X−M [X] Y −M [Y ]
Reciproc, dacă X 0 = D[X]
,Y 0 = D[Y ]
, atunci sunt evidente următoarele relaţii
0 0 0 0 2
ρ[X, Y ] = M [X Y ] = 1 şi M [(X ± Y ) ] = 0. Într-un cadru mai general decât cel prezen-
tat ı̂n acest curs (vezi [22]), se poate arăta că din ultima egalitate rezultă că X 0 ± Y 0 = 0
aproape sigur, deci:
X − M [X] Y − M [Y ]
=± .
D[X] D[Y ]
Schimbând eventual notaţiile, din ultima egalitate deducem 2.
Noţiunea de moment poate fi extinsă la variabile aleatoare multidimensionale.
Definiţia 3.4.4 Dacă (X1 , . . . , Xn ) este o variabilă aleatoare n-dimensională cu densita-
tea de probabilitate fX1 ...Xn , numim moment iniţial de ordinul (k1 . . . kn ) numărul
Z Z
k1 kn
νk1 ...kn = M [X1 , . . . , Xn ] = . . . xk11 . . . , xknn fX1 ...Xn (x1 , . . . xn )dx1 . . . dxn .
IRn

Definiţia 3.4.5 Dacă X şi Y sunt două variabile aleatoare n-dimensionale, matricea de
elemente
Cov[Xi Yj ], i = 1, . . . n, j = 1, . . . n.
se numeşte matricea de covarianţă.
118 Variabile aleatoare continue

Medii condiţionate.
Dacă X este o variabilă aleatoare cu densitatea de probabilitate f şi A ∈ K, definim
media lui X condiţionată de A
Z +∞
M [x|A] = xf (x|A)dx (3.45)
−∞

unde f (x|A) este densitatea de probabilitate a lui X condiţionată de A.

Exemplul 3.4.5 Fie T variabila aleatoare care dă timpul de funcţionare până la prima
defectare. Să determinăm media lui T , condiţionată de faptul că sistemul a funcţionat
până la momentul t. Folosind un raţionament asemănător cu cel pentru deducerea formulei
(3.15), deducem

f (x)
f (x|{T 6 t}) = R +∞ , x 6 t.
t
f (x)dx
Atunci cu ajutorul relaţiei (3.45), obţinem
R +∞
xf (x)dx
M [T |{T 6 t}] = Rt +∞ .
t
f (x)dx
Dacă X şi Y sunt două variabile aleatoare cu densităţile de probabilitate fX , fY definim
mediile condiţionate prin formulele
Z +∞
M [Y |x] = yfY (y|x)dy
−∞
Z +∞
M [X|y] = xfX (x|y)dx,
−∞
dacă există. Se poate arata că mediile condiţionate sunt de fapt variabile aleatoare, care
admit la rândul lor medie, ce se exprimă prin formulele integrale ale mediei totale.
Z +∞
M [Y ] = M [Y |x]fX (x)dx
−∞
Z +∞
M [X] = M [X|y]fY (y)dy.
−∞
Să deducem prima egalitate.
Z +∞ Z +∞ Z +∞
M [Y |x]fX (x)dx = fX (x)dx yfY (y|x)dy =
−∞ −∞ −∞
Z +∞ Z +∞
= ydy fY (y|x)fX (x)dx.
−∞ −∞

Dacă folosim (3.32) şi densitatea de probabilitate marginală, deducem că ultima formulă
reprezintă chiar M [Y ].
Variabile aleatoare continue 119

Exemplul 3.4.6 Numărul de ”clienţi” care ajunge la ”o staţie de deservire” ı̂ntr-un


interval de timp t este o variabilă aleatoare Poisson cu parametrul βt. Timpul necesar
deservirii fiecăruia este o variabilă exponenţială, T , cu parametrul α, deci are densitatea
de probabilitate

αe−αt , dacă t > 0
f (t) = (α > 0).
0, dacă t < 0
Să determinăm repartiţia variabilei N , care dă numărul de clienţi ce ajung ı̂n timpul T al
deservirii unui client, media şi dispersia, ı̂n ipoteza că sosirile clienţilor sunt independente
de timpul de deservire. Aplicăm formula probabilităţii totale
Z +∞ Z +∞
(βt)k −βt −αt
P ({N = k}) = P ({N = k}|{T = t})fT (t)dt = e αe dt =
−∞ 0 k!
Z +∞
αβ k
= tk e−(α+β)t dt.
k! 0

Făcând schimbarea de variabile r = (α + β)t şirul de egalităţi poate fi continuat,


Z +∞  k
αβ k k −r αβ k α β
r e dr = = .
k!(α + β)k+1 0 (α + β)k+1 α+β α+β

Deci N este o variabilă aleatoare geometrică. Dacă se produce {T = t}, variabila


condiţionată este Poisson, cu paramertul βt. Rezultă că media şi dispersia au aceeaşi
valoare şi anume βt. Pentru calculul mediei lui N putem folosi formula mediei totale
Z +∞ Z +∞
M [N ] = M [N |t]fT (t)dt = βtfT (t)dt = βM [T ].
0 0

Z +∞ Z +∞
2 2
M [N ] = M [N |t]fT (t)dt = (βt + β 2 t2 )fT (t)dt = βM [T ] + β 2 M [T 2 ].
0 0

1 1
Să mai observăm că T fiind variabilă exponenţială M [T ] = α
, D2 [T ] = α2
. Deci
2
M [N ] = αβ D2 [N ] = αβ 2 + αβ .

3.5 Funcţia caracteristică a unei variabile aleatoare


În acest capitol am văzut că densitatea de probabilitate a sumei de variabile aleatoare
independente este produsul de convoluţie al densităţilor de probabilitate, dar analitic este
uneori dificil de aplicat acest rezultat. Un instrument mai comod este funcţia caracte-
ristică, pe care o vom utiliza şi la determinarea momentelor unei variabile aleatoare.
Fie X o variabilă aleatoare continuă având densitatea de probabilitate fX .
120 Variabile aleatoare continue

Definiţia 3.5.1 Numim funcţie caracteristică asociată variabilei aleatoare X, funcţia


ϕ : IR → C, definită prin
Z ∞
itX
ϕ(t) = M [e ] = eitx fX (x)dx.
−∞

Tinând cont că eiy = cos y + i sin y cu y ∈ IR , eitX reprezintă o variabilă aleatoare
bidimensională cu componentele (cos tX, sin tX). Deoarece |eitx | = 1, funcţia caracteris-
tică există pentru orice variabilă aleatoare ce admite densitate de probabilitate. Vom
mai nota ϕX (t), pentru a pune ı̂n evidenţă cărei variabile aleatoare i se asociază funcţia
caracteristică. Definiţia funcţiei caracteristice reprezintă transformata Fourier aplicată
funcţiei absolut integrabile fX ; o formulă de inversare va fi formulată ı̂n prezenţa condiţiei
suplimentare de absolută integrabilitate a funcţiei caracteristice, ı̂n Teorema 5.3 din acest
capitol.

Propoziţia 3.5.1 Următoarele afirmaţii sunt adevărate :


1. ϕ(0) = 1;
2. |ϕ(t)| 6 1;
3. ϕ(−t) = ϕ(t);
4. ϕ(t) este uniform continuă pe IR.

Demonstraţie.
1. şi 2. sunt evidente.
3. Să calculăm
Z ∞ Z ∞ Z ∞
−itx
ϕ(−t) = e ϕ(x)dx = eitx f (x)dx = eitx f (x)dx = ϕ(t).
−∞ −∞ −∞

4. Pentru a arăta că ϕ este uniform continuă, să calculăm:


Z ∞ Z ∞

|ϕ(t + h) − ϕ(t)| = e (e − 1)f (x)dx 6
itx ihx
|eihx − 1|f (x)dx.
−∞ −∞
R∞
Deoarece −∞
f (x)dx = 1, pentru orice  > 0, există A suficient de mare astfel ı̂ncât
Z
f (x)dx < /4,
>
|x| A

iar din continuitatea exponenţialei există h suficient de mic ı̂ncât |eihx − 1| < /2. Atunci
putem scrie
Z A Z
ihx
|ϕ(t + h) − ϕ(t)| 6 |e − 1|f (x)dx + f (x)dx < .
−A >
|x| A

Observaţie. Următoarele afirmaţii sunt echivalente : o funcţie caracteristică este


reală; f (−x) = f (x); F (x) = 1 − F (−x), unde F şi f sunt funcţiile de repartiţie,
respectiv de densitate de probabilitate. Egalităţile dintre funcţiile precedente au loc ı̂n
Variabile aleatoare continue 121

cazul cel mai general cu excepţia unei mulţimi de probabilitate nulă (deci aproape sigur).
Demonstrăm afirmaţia ı̂n cazul ı̂n care f este continuă. Arătăm, mai ı̂ntâi, că ultimele
două afirmaţii sunt echivalente. Avem

F 0 (x) = (1 − F (−x))0 ⇒ f (x) = f (−x).

Reciproc, dacă f (x) = f (−x)


Rx R∞ R −∞
F (x) = −∞ f (t)dt = 1 − x f (t)dt = 1 + −x f (−u)du =
R −x
= 1 − −∞ f (u)du = 1 − F (−x).

În ce priveşte echivalenţa primelor două relaţii se observă imediat că


Z ∞ Z ∞
itx
f (x) = f (−x) =⇒ ϕ(t) = e f (x)dx = e−itx f (x)dx = ϕ(−t) = ϕ(t).
−∞ −∞

Se poate arăta, ı̂n prezenţa unor rezultate suplimentare şi care nu sunt cuprinse ı̂n acest
curs, că din faptul că ϕ este reală, rezultă f (x) = f (−x).

Propoziţia 3.5.2 1. Dacă Y = aX + b, cu a, b ∈ IR, atunci ϕY (t) = eitb ϕX (at);


2. Dacă X şi Y sunt independente, atunci ϕX+Y = ϕX ϕY .

Demonstraţie.    
1. ϕY (t) = M [eity ] = M eit(aX+b) = eitb M eitaX = eitb ϕX (at).
2. ϕX+Y (t) = M eit(X+Y ) = M eitX eitY = ϕX (t)ϕY (t).
Cunoaşterea funcţiei caracteristice permite calculul momentelor iniţiale, după cum
rezultă din următoarea teoremă.

Teorema 3.5.1 Dacă o variabilă aleatoare admite moment absolut de ordin n, n ∈ IN ,


atunci funcţia caracteristică este de n ori derivabilă şi are loc :

ϕ(k) (0)
νk = , k = 1, . . . n.
ik
Demonstraţie. Derivăm formal de k ori sub integrala cu parametru din definiţia funcţiei
caracteristice. Găsim după majorări
Z ∞
(k) k
ϕ (t) = i xk eitx f (x)dx,
−∞

iar Z

x e f (x)dx 6 βk 6 βn , ∀k = 1, . . . n,
k itx

−∞

deci derivatele există. Dacă ı̂n formula de derivare luăm t = 0, găsim

ϕ(k) (0) = ik νk .
122 Variabile aleatoare continue

Teorema 3.5.2 Dacă X este o variabilă aleatoare continuă care admite momente ab-
solute de orice ordin, atunci funcţia caracteristică admite dezvoltare ı̂n serie de puteri de
forma
X∞
(it)k
ϕ(t) = νk .
k=0
k!

Demonstraţie. Înlocuim ı̂n definiţia funcţiei caracteristice dezvoltatea ı̂n serie a expo-
nenţialei şi găsim Z ∞
ϕ(t) = eitx ϕ(x)dx =
−∞
Z ∞  
itx (itx)n−1 (itx)n ixθ
1+ + ... + + e f (x)dx =
−∞ 1! (n − 1)! n!
it (it)n−1
= ν0 + ν1 + . . . + νn−1 + Rn .
1! (n − 1)!
Majorând restul obţinem
Z Z
(it)n ∞ n itθ |t|n ∞ n
|Rn | =
x e f (x)dx 6 |x| f (x)dx < ∞.
n! −∞ n! −∞
Se observă că lim Rn = 0, deci afirmaţia este adevărată.
n→∞

Teorema 3.5.3 (Formula de inversiune) Fie X o variabilă aleatoare având ϕ şi F , res-
pectiv, funcţia caracteristică şi funcţia de repartiţie. Dacă x1 , x2 , cu x1 < x2 sunt puncte
de continuitate ale lui F , atunci are loc
Z c −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = lim ϕ(t)dt. (3.46)
c→∞ 2π −c it
Demonstraţie. Observăm că pentru c ∈ IR, funcţia de sub integrală este continuă, dacă o
definim ı̂n t = 0 prin
e−itx1 − e−itx2
lim = (x2 − x1 )ϕ(0).
t→0 it
De asemenea, funcţia are un majorant integrabil, deci integrala
Z c −itx1
1 e − e−itx2
Ic = ϕ(t)dt
2π −c it
este convergentă. Considerăm cazul particular ı̂n care X are densitate de probabilitate f
şi ı̂nlocuim ı̂n integrala precedentă pe ϕ
Z c Z ∞ −itx1
1 e − e−itx2 itz
Ic = e f (z)dzdt.
2π −c −∞ it
Prin schimbarea ordinii de integrare (posibilă deoarece ı̂n raport cu z avem absolută
convergenţă, iar ı̂n raport cu t integrarea se face pe interval finit), găsim
Z ∞ Z c it(z−x1 ) 
1 e − eit(z−x2 )
Ic = dt f (z)dz =
2π −∞ −c it
Variabile aleatoare continue 123
Z ∞ Z 0 Z c 
1 eit(z−x1 ) − eit(z−x2 ) eit(z−x1 ) − eit(z−x2 )
= dt + dt f (z)dz.
2π −∞ −c it 0 it
În prima integrală făcând schimbarea t → −t, obţinem
Z ∞ Z c 
1 −e−it(z−x1 ) + e−it(z−x2 ) + eit(z−x1 ) − eit(z−x2 )
Ic = dt f (z)dz =
2π −∞ 0 it
Z Z  
1 ∞ c sin t(z − x) sin t(z − x2
= − dtf (z)dz
π −∞ 0 t t
Alegem un δ > 0 astfel ı̂ncât x1 + δ < x2 − δ şi descompunem integrala pe domeniile :

(−∞, x1 − δ), (x1 − δ, x1 + δ), (x1 + δ, x2 − δ), (x2 − δ, x2 + δ), (x2 + δ, ∞).

Reamintim formula lui Dirichlet [10] :


Z 
1 c sin αt 1/2, dacă α > 0
lim dt =
c→∞ π 0 t −1/2, dacă α < 0

unde limita este uniformă ı̂n raport cu α. Pe intervalul (−∞, x1 − δ), avem z − x2 <
z − x1 < −δ < 0, deci
Z  
1 c sin t(z − x1 ) sin t(z − x2 )
− dt → 0, dacă c → ∞
π 0 t t
şi cum integrala este uniform mărginită ı̂n raport cu c, putem comuta integrala cu limita
şi obţinem
Z x1 −δ Z c  
1 sin t(z − x1 ) sin t(z − x2 )
− dtf (z)dz → 0, dacă c → ∞ (3.47)
−∞ π 0 t t
şi analog
Z ∞ Z c 
1 sin t(z − x1 ) sin t(z − x2 )
− dtf (z)dz → 0, pentru c → ∞. (3.48)
x2 +δ π 0 t t

Pe intervalul (x1 + δ, x2 − δ) folosind formula lui Dirichlet şi convergenţa uniformă ı̂n
raport cu α, deducem
Z x2 −δ Z c  
1 sin t(z − x1 ) sin t(z − x2 )
lim − dtf (z)dz =
c→∞ x +δ π 0 t t
1

Z x2 −δ  
sin t(z − x1 ) sin t(z − x2 )
= − dtf (z)dz = F (x2 − δ) − F (x1 + δ). (3.49)
x1 +δ t t
Pe intervalele (x1 − δ, x1 + δ) şi (x2 − δ, x2 + δ), integralele pot fi majorate respectiv, dacă
folosim din nou formula lui Dirichlet, cu

2(F (x1 + δ) − F (x1 − δ)),


(3.50)
2(F (x2 + δ) − F (x2 − δ)).
124 Variabile aleatoare continue

Pentru orice  > 0, din (3.47) şi (3.48) există c astfel ı̂ncât ∀c > c are loc
Z ∞ Z c  
1 sin t(z − x ) sin t(z − x )
1

2
f (z)dz 6
π t t
−∞ 0

6 /3 + /3 + F (x2 − δ) − F (x1 + δ)/3 + 2(F (x1 + δ)−


−F (x1 − δ) + F (x2 + δ) − F (x2 − δ)).
În inegalitatea de mai sus au intervenit şi relaţiile (3.49) şi (3.50). Deoarece x1 şi x2 sunt
puncte de continuitate pentru F

lim(F (x1 + δ) − F (x1 − δ)) = lim(F (x2 + δ) − F (x2 − δ)) = 0.


δ→0 δ→0

Trecând apoi la limită pentru c → ∞ , găsim formula (3.46 ).


Această teoremă ne permite să stabilim o corespondenţă biunivocă ı̂ntre funcţiile de
repartiţie şi cele caracteristice, după cum rezultă din următoarea teoremă.

Teorema 3.5.4 (Teorema de unicitate) Funcţia de repartiţie este unic determinată de


funcţia sa caracteristică.

Demonstraţie. În teorema precedentă facem pe x1 să tindă la ∞, x1 rămânând punct de


continuitate. Deoarece lim F (x1 ) = 0, găsim
x1 →−∞

Z c
e−itx1 − e−itx2
F (x2 ) = lim lim ϕ(t)dt
x1 →−∞ c→∞ −c it

∀x1 , x2 puncte de continuitate ale lui F .

Teorema 3.5.5 Dacă funcţia caracteristică este absolut integrabilă pe IR, adică
Z ∞
|ϕ(t)|dt < ∞,
−∞

atunci F are derivată simetrică pe IR, deci ∀x ∈ IR , există

F (x + h) − F (x − h)
lim = Fs0 (x),
h→0 2h
şi
Fs0 (x) = f (x)
ı̂n orice punct de continuitate a lui f .

Demonstraţie. Pentru orice două puncte de continuitate ale lui F , are loc din formula de
inversiune Z ∞ −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = ϕ(t)dt,
2π −∞ it
Variabile aleatoare continue 125

deoarece folosind ipoteza, funcţia din membrul al doilea este integrabilă. Presupunând că
x1 = x − h, x2 = x + h, atunci :
Z ∞
1 sin th −itx
F (x + h) − F (x − h) = 2h e ϕ(t)dt.
2π −∞ th

Deoarece
sin th

th 6 1,
avem
−itx sin th
e ϕ(t) 6 |ϕ(t)|, ∀h ∈ IR,
th
şi
sin th
lim e−itx = e−itx .
h→0 th
Într-un cadru mult mai general decât cel prezent, se poate demonstra un criteriu de
convergenţă dominată a lui Lebesgue [22], ı̂n baza căruia putem trece la limită sub inte-
grală şi găsim
Z ∞
0 F (x + h) − F (x − h) 1
Fs = lim = e−itx ϕ(t)dt. (3.51)
h→0 2h 2π −∞
Să demonstrăm că Fs0 este continuă; ı̂ntr-adevăr
Z
1 ∞ th
|Fs0 (x + h) − Fs (x)| 6 2 sin |ϕ(t)|dt =

2π −∞ 2
Z Z
1 th th
= sin |ϕ(t)|dt + 1 sin |ϕ(t)|dt.
π 2 π |t|>A 2
|t|6A

Pentru  > 0 putem alege A suficient de mare ı̂ncât


Z
1
|ϕ(t)dt < /2.
π |t|>A

Prima integrală poate fi făcută < /2, dacă alegem h suficient de mic, deci

|Fs0 (x + h) − Fs0 (x)| < ,

de unde rezultă continuitatea. Reamintim că ı̂n orice punct de continuitate pentru f ,
are loc F 0 (x) = f (x), de unde afirmaţia teoremei, deoarece derivata simetrică coincide cu
derivata.
Relaţia (3.51) constituie formula de inversare, care exprimă densitatea de probabilitate
cu ajutorul funcţiei caracteristice. Vom demonstra ı̂n continuare teorema lui Bochner,
care dă o descriere completă a funcţiilor caracteristice, acest rezultat fiindu-ne necesar la
studiul proceselor stochastice staţionare.
126 Variabile aleatoare continue

Definiţia 3.5.2 Funcţia ϕ : IR → IR, continuă, se numeşte pozitiv definită pe IR, dacă
∀t1 , . . . , tn ∈ IR şi z1 , . . . , zn ∈ C, ∀n ∈ IN , are loc
n X
X n
ϕ(tj − tk )zj zk > 0.
k=1 j=1

Câteva proprietăţi decurg imediat din definiţie.


1. ϕ(0) > 0.
Într-adevăr pentru n = 1, t1 = 0, z1 = 1, afirmaţia este evidentă.
2. ϕ(−t) = ϕ(t), ∀t ∈ IR.
Aceasta rezultă dacă luăm n = 2, t1 = 0, t2 = t, z1 , z2 ∈ C.
2 X
X 2
06 ϕ(tk − tj )zk zj = ϕ(0 − 0)z1 z1 + ϕ(0 − t)z1 z2 + ϕ(t − 0)z2 z1 + ϕ(t − t)z2 z2 =
k=1 j=1

= ϕ(0)(|z1 |2 + |z2 |2 ) + ϕ(−t)z1 z2 + ϕ(t)z1 z2 ,


şi deci ϕ(−t)z1 z2 + ϕ(t)z1 z2 ∈ IR. Dacă luăm

ϕ(−t) = α1 + iβ1 , ϕ(t) = α2 + iβ2 ,


z1 z2 = γ + iδ , z1 z2 = γ − iδ,

rezultă α1 δ + β1 γ − α2 δ + β2 γ = 0, ∀γ, δ, deci obţinem α1 = α2 şi β1 + β2 = 0.


3. |ϕ(t)| 6 ϕ(0).
În inegalitatea de la punctul precedent, fie z1 = ϕ(t), z2 = −|ϕ(t)|, atunci deducem

2ϕ(0)|ϕ(t)|2 − |ϕ(t)|2 |ϕ(t)| − |ϕ(t)|2 |ϕ(t)| > 0,

De unde, dacă |ϕ(t)| 6= 0 rezultă ϕ(0) > |ϕ(t)|, iar dacă |ϕ(t)| = 0, din prima proprietate
deducem din nou afirmaţia.

Teorema 3.5.6 (Bochner-Hincin) O funcţie ϕ(t) continuă, cu condiţia


ϕ(0) = 1 este o funcţie caracteristică, dacă şi numai dacă este pozitiv definită.

Demonstraţie. Dacă ϕ este funcţie caracteristică pentru o variabilă aleatoare cu densitatea


de probabilitate f , are loc Z ∞
ϕ(t) = eitx f (x)dx.
−∞

Să demonstrăm că este pozitiv definită. Avem


n X
X n n Z
n X
X ∞ 
ix(tk −tj )
ϕ(tj − tk )zj zk = e f (x)dxzk zj =
k=1 j=1 k=1 j=1 −∞

Z n X
n Z n
! n
!
∞ X ∞ X X
= eix(tk −tj ) f (x)zk zj dx = eitk x zk e−itj x zj f (x)dx =
−∞ k=1 j=1 −∞ k=1 j=1
Variabile aleatoare continue 127
n
Z 2
X ∞
itk x
= e zk f (x)dx > 0.
−∞
k=1

Reciproc. Pentru Z > 0, considerăm funcţia


Z ZZ Z
1
pZ (x) = ϕ(u − v)e−iux eivx dudv.
2πZ 0 0
Dacă scriem integrala dublă ca limită a sumelor Riemann corespunzătoare şi folosim
pozitiva definire a lui ϕ, rezultă că pZ > 0. Facem ı̂n integrala dublă schimbarea de
variabile 
t=u−v
z=u
cu inversa 
u=z
v = z − t.
Domeniul [0, Z] × [0, Z] din Figura 3.12 este dus ı̂n domeniul reprezentat ı̂n figură 3.13.
Se obţine imediat Z Z 
1 |t|
pZ (x) = 1− ϕ(t)e−itx dt.
2π −Z Z
Să demonstrăm că pZ (x) este integrabilă pe R. Vom reface ı̂n acest scop o demonstraţie
datorată lui Yu Linnik, pe acest caz particular. Notăm
Z x
G(x) = pZ (z)dz
−x

şi ı̂nlocuim pZ , după care schimbăm ordinea de integrare. Obţinem


Z xZ Z 
1 |t|
G(x) = 1− ϕ(t)e−itz dtdz.
2π −x −Z Z
Întroducând funcţia (  
|t|
1− ϕ(t), |t| 6 Z
p(t) = Z ,
0, |t| > Z
deducem Z Z Z
Z x Z
1 −itx 1 sin tx
G(x) = p(t) e dzdt = p(t) dt.
2π −Z −x π −Z t
Datorită faptului că pZ > 0, rezultă că G este nedescrescătoare. Pentru asigurarea inte-
grabilităţii este suficient să arătăm că G este mărginită. Întroducem funcţia auxiliară
Z
1 2u
G1 (u) = G(x)dx
u u
şi observăm că Z 2u
G(u)
G1 (u) > dx = G(u).
u u
128 Variabile aleatoare continue

Deoarece G1 majorează G, pentru mărginirea lui G este suficient să arătăm marginirea
lui G1 . Să calculăm
Z 2u Z Z Z Z
1 sin tx 1 − cos tx 2u
G1 (u) = p(t) dtdx = p(t) u dt =
πu u −Z t πu −Z t2
Z Z
1 1
= p(t) 2 (cos ut − cos2ut)dt =
πu −Z t
Z Z Z Z
2 (sin ut)2 2 (sin ut
2
)2
= p(t) dt − p(t) dt.
πu −Z t2 πu −Z t2
Fie M = sup |p(t)|. Atunci
Z Z Z ∞
2 (sin ut)2 (sin ut)2
p(t) dt 6 2M udt,
πu −Z t2 −∞ u2 t 2
iar Z Z
2 Z
(sin ut2
)2 M ∞
(sin v)2
p(t) 2
dt 6 dv.
u −Z t π −∞ v2
Întegralele din membrul al doilea sunt convergente. Deci mărginirea este asigurată. Se
constată că Z ∞
1
pZ (x) = p(t)e−itx dt
2π −∞
1
adică 2π pZ este transformata Fourier a funcţiei p. Folosind formula de inversiune pentru
funcţia p continuă (vezi [10]), rezultă că
  Z ∞
1 |t| 1
1− ϕ(t) = pZ (x)eitx dx, ∀|t| 6 Z.
2π Z 2π −∞

În particular, pentru t = 0, Z ∞


pZ (x)dx = ϕ(0) = 1,
−∞

iar funcţia pZ fiind continuă şi integrabilă pe IR, constituie o densitate de probabilitate
pentru o variabilă aleatoare, care are funcţia caracteristică asociată p. Observăm că
pentru Z → ∞, funcţia p(t) converge uniform la ϕ, pe fiecare interval mărginit. De aici,
folosind convergenţa ı̂n repartiţie Capitolul 4, rezultă că ϕ este o funcţie caracteristică.

3.6 Variabile aleatoare continue clasice şi legăturile


dintre ele
Vom enumera principalele repartiţii continue şi vom studia proprietăţile lor. Un
instrument important pentru aceasta este funcţia caracteristică, ce a fost studiată anterior.
Pentru ı̂nceput vom calcula funcţia caracteristică a repartiţiei normale N (m, σ 2 ), dată de
(3.11).
Variabile aleatoare continue 129

Propoziţia 3.6.1 Funcţia caracteristică a repartiţiei normale este


t2 σ 2
ϕ(t) = eimt − 2 . (3.52)

Demonstraţie. Reamintim că densitatea de probabilitate a repartiţiei normale este

1 (x−m)2
f (x) = √ e− 2σ2
2πσ
pe care o√ı̂nlocuim ı̂n expresia funcţiei caracteristice. Facem schimbarea de variabilă
x − m = 2σy şi obţinem
Z ∞ (x−m)2
Z ∞ √
1 itx − 2σ 2 1 2
ϕ(t) = √ e e dx = √ eitm−y +ity 2σ dy =
2πσ −∞ π −∞
t2 σ 2 Z ∞
eitm− 2 t2 σ 2
e−(y− 2 i) dy = eimt −
tσ 2
= √ 2 .
π −∞

În particular, dacă X este o variabilă repartizată N (0, 1), funcţia sa caracteristică este
t2
ϕ(t) = e− 2 .

Folosind Propoziţia 3.5.2 determinăm comod repartiţia sumei de variabile aleatoare nor-
male.

Teorema 3.6.1 Dacă Xk : N (mk , σk2 ), k = 1, . . . n, sunt variabile aleatoare independente,


X n n
X
atunci variabila aleatoare X1 + . . . + Xn este repartizată N ( mk , σk2 ).
k=1 k=1

Demonstraţie. Funcţia caracteristică a sumei este produsul funcţiilor caracteristice


n
Y t2 σk2
ϕX1 +...+Xn (t) = eimk t − 2 =
k=1
 n 
X
n 
t2 σk2 
X  
it mk − k=1 
 2 
k=1  
=e ,
Xn n
X
care corespunde ı̂n mod unic variabilei repartizate N ( mk , σk2 ).
k=1 k=1
130 Variabile aleatoare continue

Propoziţia 3.6.2 Dacă Xk , k = 1, . . . n, sunt variabile aleatoare independente repartizate


normal N (m, σ 2 ), atunci media lor aritmetică
n
1X
Xk
n k=1

σ2
este repartizată N (m, ).
n

Demonstraţie. Din Teorema 3.6.1 suma este repartizată N (nm, nσ 2 ). Să calculăm funcţia
de repartiţie a variabilei aleatoare notată
n
1X
X= Xk .
n k=1

Avem
n
X
FX = P ({X < x}) = P ({ Xk < nx}).
k=1

Prin derivare găsim densitatea de probabilitate


2
1 − (nx−nm)2 1 − (x−m)
σ2
fX (x) = √ e 2nσ 2
n= √ σ e 2n ,
2πnσ 2π √n

de unde afirmaţia propoziţiei.


Să definim funcţia caracteristică ı̂n cazul multidimensional. Dacă variabila aleatoare
n-dimensională are densitatea de probabilitate fX1 ...Xn , atunci funcţia caracteristică este

X n
Z Z −i t k xk
ϕ(t1 , . . . , tn ) = ... e k=1 f (x1 , . . . , xn )dx1 . . . dxn .
IRn

Relaţia poate fi pusă sub forma


Z Z
tX
ϕ(t1 , . . . , tn ) = ... e−iT f (x1 , . . . , xn )dx1 . . . dxn ,
IRn
   
x1 t1
   
unde X =  ...  şi T =  ... . Să determinăm funcţia caracteristică pentru
xn tn
variabila aleatoare normală n-dimensională, mai ı̂ntâi pentru cazul m1 = . . . = mn = 0.
Reamintim că densitatea de probabilitate este dată de (3.24)

det A − 1 X t AX
f (x) = n e
2 .
(2π) 2
Variabile aleatoare continue 131

Dacă ı̂nlocuim ı̂n expresia funcţiei caracteristice, obţinem


√ Z Z
det A t 1 t
ϕ(t1 , . . . , tn ) = 2 ... eiT X− 2 X AX dx1 . . . dxn .
(2π) n IRn

Facem transformarea Portogonală X = HY , pentru care forma pătratică de la exponent


are forma canonică j=1 lj yj2 , cu lj > 0 (aceste transformări au fost explicate ı̂n detaliu
la repartiţia normală n-dimensională ı̂n 3.3 ). Notăm U = H −1 T = H t T . Atunci, se
observă că
T t X = (HU )t HY = U t H t HY = U t Y.
Cu aceasta funcţia caracteristică devine
n
X
√ Z Z iU t Y − 12 lj yj2
det A j=1
ϕ(t1 , . . . , tn ) = 2 e dy1 . . . yn =
(2π) n IRn
√ n Z
det A Y ∞
1 2
= 2 eiuj yj − 2 λj yj dyj .
(2π) n
j=1 −∞

|l |
Ultima integrală ı̂nmulţită cu √2π j
reprezintă funcţia caracteristică pentru o variabilă
1
aleatoare repartizată N (0, lj ), deci folosind (3.52), avem

Pn u2
j
− 12
ϕ(t1 , . . . , tn ) = e j=1 lj
.

Reamintim că matricea formei pătratice se modifică după legea


 
l1 0 . . . 0
t
H AH =  0 l2 . . . 0 ,
0 0 ... ln

unde lj > 0, sunt valorile proprii ale matricei A. Prin inversare găsim
 1 
l1
0 ... 0
H −1 A−1 H =  0 l12 . . . 0  ,
0 0 . . . l1n

deci ı̂n ultima integrală recunoaştem că exponentul este următorul produs de matrice
n
X u2j
= U t (H −1 A−1 H)U =
j=1
lj

= T t H(H −1 A−1 H)H −1 T = T t A−1 T


(s-a folosit faptul că U = H t T ). Găsim forma finală
1 t A−1 T
ϕ(t1 , . . . , tn ) = e− 2 T .
132 Variabile aleatoare continue

Se demonstrează că dacă vectorul M 6= 0, atunci printr-o schimbare de variabile, funcţia


caracteristică devine
t 1 t −1
ϕ(t1 , . . . , tn ) = eiT M − 2 T A T .
Generalizând la cazul n-dimensional Teorema 3.5.1, se poate demonstra că derivatele
parţiale ale lui ϕ ı̂n raport cu ti generează momentele variabilelor aleatoare marginale.
Astfel  
1 ∂ϕ
M [Xh ] = (0, . . . , 0),
i ∂th
 2 
1 ∂ ϕ
M [Xh Xk ] = 2 (0, . . . , 0).
i ∂th ∂tk
Să determinăm momentele variabilei aleatoare normale n-dimensionale, mai ı̂ntâi ı̂n cazul
m1 = . . . = mn = 0.
  n
!
1 ∂ϕ 1 t −1
X
M [Xh ] = (0, . . . , 0) = ie− 2 T A T a−1
hk tk (0, . . . , 0) = 0,
i ∂th k=1
 
1 ∂ϕ
M [Xh Xk ] = 2 (0, . . . , 0) =
i ∂th ∂tk
n n
!
X X
− 21 T t A−1 T − 12 T t A−1 T
= i2 e a−1
hk th a−1 −1
hk tk + ahk e (0, . . . , 0) = a−1
hk .
h=1 k=1

Dacă (m1 , . . . , mn ) 6= (0, . . . , 0),


  n
!
1 ∂ϕ X
M [Xh ] = (0, . . . , 0) = mh + i a−1
hk tk ϕ(t1 , . . . , tn )(0, . . . , 0) = mh ,
i ∂th k=1
 
1 ∂2ϕ
M [Xh Xk ] = 2 (0, . . . , 0) =
i ∂th ∂tk
n n
!
X X
= (mh + i a−1
hk tk )(mk + i a−1
hk tk ) ϕ(t1 , . . . , tn )+
k=1 h=1

+a−1 −1
hk ϕ(t1 , . . . , tn )(0, . . . , 0) = mh mk + ahk .

Se obţin imediat egalităţile


M [(Xh − mh )] = 0,
M [(Xh − mh )2 ] = M [(Xh2 )] − m2h = a−1
hh ,

Cov[Xh , Xk ] = M [(Xh − mh )(Xk − mk )] = M [Xh Xk ] − mh mk = a−1


hk .

Deci A−1 este matricea de covarianţă a variabilei normale n-dimensionale. Pe baza acestei
observaţii ı̂n cazul 2-dimensional, repartiţia normală poate fi scrisă sub o formă mai
comodă. Notăm:
M [X1 ] = m1 , M [X2 ] = m2
D2 (X1 ) = σ12 , D2 (X2 ) = σ22
Variabile aleatoare continue 133

Cov[X1 , X2 ] = ρσ1 σ2
şi găsim  
−1 σ12 ρσ1 σ2
A =
ρσ1 σ2 σ22 ,
de unde, prin inversare, găsim
 
1 σ22 −ρσ1 σ2
A=
(1 − ρ2 )σ12 σ22 −ρσ1 σ2 σ12

De aceea densitatea de probabilitate se poate scrie:


 
1 (x1 −m1 )2 2ρ(x1 −m1 )(x2 −m2 ) (x2 −m2 )2
1 − 2(1−ρ2 ) σ12
− σ1 σ2
+ σ22
f (x1 , x2 ) = p e . (3.53)
2πσ1 σ2 1 − ρ2

Exemplul 3.6.1 Variabila aleatoare (X, Y, Z) este normal repartizată şi are matricea de
covarianţă
 
1 0, 2 0, 3
 0, 2 1 0, 4  .
0, 3 0, 4 1
Să determinăm densitatea de probabilitate a variabilei aleatoare marginale (X, Z). Ob-
servăm pentru aceasta că matricea de covarianţă este
 
1 0, 3
.
0, 3 1

Deci mX = mZ = 0, ρ = 0, 3, σ1 = σ2 = 1 şi ı̂nlocuind ı̂n (3.53), obţinem densitatea de


probabilitate căutată.

Vom enunţa un rezultat care stabileşte legătura dintre convergenţa funcţiilor caracteristice
şi cele de repartiţie, de mare utilitate practică. Demonstraţia acestui rezultat se găseşte
de exemplu ı̂n [10] şi este făcută ı̂ntr-un cadru mai general.

Teorema 3.6.2 Dacă şirul de funcţii caracteristice ϕn converge pentru orice t la ϕ(t) =
t2
e− 2 , atunci şirul funcţiilor de repartiţie corespunzătoare Fn satisface:
Z x
1 u2 1
lim Fn (x) = e− 2 = + Φ(x).
n→∞ 2π −∞ 2
1
Reamintim că 2
+ Φ(x) este funcţia de repartiţie a variabilei aleatoare normale normate.

Repartiţia χ2 (”hi pătrat”). Funcţia f : IR → IR, definită prin


1 n
−1 − 2σx2
f (x) = n n
x 2 e , 0 6 x < ∞, n ∈ IN , σ > 0
2 σ n Γ( 2 )
2
134 Variabile aleatoare continue
R∞
este o densitate de probabilitate. Prin substituţia y = 2σx2 integrala 0 f (x)dx se reduce
n
la 2 2 σ n Γ( n2 ). Pentru funcţia Γ şi proprietăţile ei, vezi Anexa 3. Această repartiţie a fost
descoperită de Helmert şi pusă ı̂n valoare de Pearson. n se numeşte număr de grade de
libertate. Vom nota X : H(n, σ). Funcţia caracteristică este dată de
n
ϕ(t) = (1 − 2σ 2 ti)− 2 .
R∞
Într-adevăr, calculăm integrala ϕ(t) = −∞ f (x)eitx dx şi obţinem
Z ∞
1 x n
ϕ(t) = n n n eitx− 2σ2 x 2 −1 dx =
2 2 σ Γ( 2 ) 0

Z ∞
1 n x 2 ti)
= n n n x 2 −1 e− 2σ2 (1−2σ dx.
2 2 σ Γ( 2 ) 0

În ultima integrală facem schimbarea 2σx2 (1 − 2σ 2 ti) = y; atunci integrala precedentă
devine   n2 Z ∞ n
2σ 2 n
−1 −y 2 2 σn n
2
y 2 e dy = n Γ( ),
1 − 2σ ti 0 (1 − 2σ ti) 2 2
2

de unde se obţine imediat afirmaţia. Pentru calculul momentelor, vom deriva funcţia
caracteristică. Avem
n
ϕ0 (t) = inσ 2 (1 − 2σ 2 ti)− 2 −1 ,
n
ϕ00 (t) = i2 n(n + 2)σ 4 (1 − 2σ 2 ti)− 2 −2 ,
..
.
n
ϕ(k) (t) = ik n(n + 2) . . . (n + 2k − 2)σ 2k (1 − 2σ 2 ti)− 2 −k .
Folosind apoi Teorema 3.5.1, găsim
1
ν1 = ϕ0 (0) = nσ 2 ,
i
1 00
ν2 = ϕ (0) = n(n + 2)σ 4 ,
i2
..
.
1 (k)
νk = ϕ (0) = n(n + 2) . . . (n + 2k − 2)σ 2k .
ik
Următoarea teoremă este un important instrument de lucru ı̂n statistica matematică.

Teorema 3.6.3 Dacă X1 , . . . , Xn sunt variabile aleatoare independente, repartizate


N (0, σ 2 ), atunci variabila aleatoare
Xn
Xk2
k=1

este repartizată H(n, σ).


Variabile aleatoare continue 135

Demonstraţie . Să determinăm pentru ı̂nceput funcţia caracteristică a variabilei aleatoare


Xk2 , k = 1 . . . n. Pentru aceasta să-i determinăm mai ı̂ntâi densitatea de probabilitate.
Avem
Z √x
√ √ 2 y2
2
FXk2 (x) = P ({Xk < x}) = P ({− x < Xk < x}) = √ e− 2σ2 dy, x > 0.
2πσ 0

Prin derivare, găsim


1 − x
fXk2 (x) = √ √ e 2σ2 , x > 0,
2πσ x
care se constată a fi o densitate de probabilitate pentru o variabilă aleatoare H(1, σ), deci
are funcţia caracteristică dată de
1
ϕk (t) = (1 − 2σ 2 ti)− 2 .

Folosind acum faptul că funcţia caracteristică a sumei este produsul funcţiilor caracte-
ristice, obţinem
Yn
1 n
ϕ(t) = (1 − 2σ 2 ti)− 2 = (1 − 2σ 2 ti)− 2 ,
k=1

care este funcţia caracteristică a unei variabile aleatoare H(n, σ).


Folosind din nou funcţia caracteristică a sumei, se poate demonstra următoarea teo-
remă.

Teorema 3.6.4 Dacă Xi : H(ni , σ), i = 1, 2, atunci

X1 + X2 : H(n1 + n2 , σ).

În practică interesează determinarea unor probabilităţi de forma P ({X > δ}), unde
X : H(n, 1), deoarece se verifică imediat că dacă X : H(n, σ), atunci variabila aleatoare

X
: H(n, 1).
σ2
Există tabele ı̂ntocmite pentru diferite valori ale lui δ şi ale numărului de grade de libertate
n, care au ca rezultate ariile din Figura 3.14.
Când numărul de grade de libertate este foarte mare, se foloseşte comportarea la limită
a şirului de variabile aleatoare repartizate χ2 .

Teorema 3.6.5 Dacă X : H(n, σ), atunci variabila aleatoare

X − nσ 2

2nσ 2

este asimptotic normală N (0, 1), pentru n → ∞.


136 Variabile aleatoare continue

Demonstraţie . Şirul funcţiilor caracteristice este


r
√n t n
√n 2 −n
−it
ϕn (t) = e 2 (1 − 2σ i √ 2
)− 2 = e−it 2 (1 − it) 2 .
2πσ 2 n

2t − 2 2 n t2
Calculăm limita lui |ϕn (t)| ) , pentru n → ∞ şi găsim e− 2 . Funcţia ϕn (t) poate
p n= (1+ n p
fi scrisă sub forma (cos t 2 −i sin t n2 )(cos n2 θn −i sin n2 θn )ρn , unde (cos θn +i sin θn )ρn =
q
1 − n2 it. Pentru n suficient de mare,
r
2
θn = − arctan t.
n
Deci argumentul numărului complex ϕn (t) poate fi luat de forma
√ r
n n 2
yn = −t + arctan t .
2 2 n
q
Notând x = n2 , avem de calculat

arctan tx − tx
lim
x→0 x2
t2
care este 0. Deci lim ϕn (t) = e− 2 .
n→∞

Această teoremă permite ca la un număr mare de grade de libertate să se folosească


tabelele funcţiei lui Laplace. În teoria selecţiei, ne interesează să determinăm repartiţia
dispersiei (privită ca variabilă aleatoare) a unei selecţii provenind dintr-o colectivitate gu-
vernată de variabila aleatoare normală. În acest scop sunt necesare următoarele rezultate.

Teorema 3.6.6 Fie Xk , k = 1, . . . n, variabile aleatoare independente repartizate N(0,1),


iar
n
X
lj (X1 , . . . Xn ) = ajk Xk , ajk ∈ IR, j = 1, . . . s, s ∈ IN , s < n,
k=1

variabile aleatoare independente de tip N (0, 1). Atunci variabila aleatoare


n
X s
X
Q= Xk2 − lj2 , s < n,
k=1 j=1

este repartizată H(n − s, 1).

Demonstraţie. Variabilele aleatoare li şi lj cu i 6= j, sunt independente, deci

Xn Xn
M [li lj ] = M [li ]M [lj ] = M [ aik Xk ]M [ ajk Xk ] = 0,
k=1 k=1
Variabile aleatoare continue 137

deoarece media este aditivă şi M [Xk ] = 0. Pe de altă parte


Xn n
X
2
M [li lj ] = M [ aik ajk Xk + ail ajm Xm Xl ] =
k=1 l,m=1

n
X n
X
= aik ajk M [Xk2 ] = aik ajk ,
k=1 k=1
n
X
deoarece M [Xm Xl ] = M [Xm ]M [xl ] = 0. Analog, M [li2 ] = a2ik = 1, ∀i = 1, . . . , s.
k=1
Sistemul celor s vectori (a11 , . . . , an1 ), . . . , (as1 , . . . , asn ) este ortogonal şi poate fi deci
completat la o bază ortonormată. Notăm matricea corespunzătoare cu A = (aij ) i, j =
1, . . . , s, care este deci ortogonală şi au loc prin urmare
n
X n
X
a2jk = 1, aik ajk = 0, ∀i, j = 1, . . . , n.
k=1 k=1
Introducem notaţiile
n
X
lr (x1 , . . . , xn ) = ark xk , r = s + 1, . . . , n,
k=1

şi fie L matricea coloană cu componentele li , i = 1, . . . n. Atunci are loc


L = AX,
unde X este vectorul n-dimensional cu componentele xi . Un simplu calcul ne arată că
n
X n
X
lk2 (x1 , . . . , xn ) = Xk2 .
k=1 k=1

Deci n s n
X X X
Q= Xk2 − lj2 = lk2 (x1 , . . . , xn ).
k=1 j=1 k=s+1

Mai observăm că variabila aleatoare n-dimensională L obţinută printr-o transformare


ortogonală asupra lui X, variabila aleatoare cu componentele Xi , i = 1 . . . n, indepen-
dente, are componentele independente; rezultă că variabilele ls+1 , . . . , ln sunt indepen-
dente, repartizate N (0, 1). Afirmaţia rezultă din Teorema 3.6.3.
Teorema 3.6.7 (Cochran) Dacă Qi (x1 , . . . , xn ), i = 1, . . . s, sunt forme pătratice respec-
tiv de rangurile r1 , . . . , rs , şi X1 , . . . , Xn sunt variabile aleatoare independente, repartizate
N (0, 1), astfel ı̂ncât
Xs n
X
Qi (X1 , . . . , Xn ) = Xj2 ,
i=1 j=1

atunci condiţia necesară şi suficientă ca Qi să fie variabile aleatoare independente este ca
r1 + . . . + rs = n.
138 Variabile aleatoare continue

Demonstraţie. Pentru ı̂nceput să presupunem că Qi sunt independente. Dacă Qi este
o formă pătratică de rang ri , atunci poate fi scrisă ca sumă de ri pătrate de variabile
aleatoare normale normate, deci Ps din Teorema 3.6.3 fiecare Qi este repartizată H(ri , 1), iar
suma lor este repartizată H( i=1 ri , 1), deoarece din ipoteză Qi sunt independente. Pe
Xn
de altă parte, Xj2 : H(n, 1). Rămâne să observăm că funcţia de repartiţie este unică,
j=1
s
X
deci rj = n.
j=1
Reciproc. Dacă Qi (X1 , . . . , Xn ) sunt forme pătratice şi r1 + . . . rn = n există o matrice
ortogonală A astfel ı̂ncât
Xs n
X
Qi (x1 , . . . , xn ) = lk2 ,
i=1 k=1
 
l1
 .. 
unde L =  .  = AX. Fiecare formă pătratică Qi este sumă de ri pătrate li , reparti-
ln
zate N (0, 1) (obţinute printr-o transformare ortogonală de variabile normal repartizate),
deci Qi sunt repartizate H(ri , 1) . Se verifică uşor că sunt şi independente.

Repartiţia Student. Spunem că variabila aleatoare X este repartizată Student cu


n grade de libertate, dacă are densitatea de probabilitate
 − n+1
Γ( n+1 ) x2 2
f (x) = √ 2 n 1+ , ∀x ∈ IR
πnΓ( 2 ) n

Vom nota X : S(n). Să verificăm mai ı̂ntâi că f este o densitate de probabilitate. Ob-
servăm că din paritatea funcţiei
Z ∞ Z ∞
f (x)dx = 2 f (x)dx.
−∞ 0

Facem schimbarea de variabilă x = ny, după care găsim
Z ∞  − n+1 Z ∞
x2 2 √ n+1
1+ dx = n (1 + y 2 )− 2 dy.
0 n 0

y2
În ultima integrală substituţia 1+y 2
= t, ne duce la funcţia Beta vezi Anexa 3. Într-adevăr,
1 − 12 − 23
dy = 2
t (1 − t) dt, şi
Z Z

2Γ( n+1 ) √ 1
n+1 1 −1 3
f (x)dx = √ 2
n n (1 − t) 2 t 2 (1 − t)− 2 dt =
−∞ πnΓ( 2 ) 0 2

Γ( n+1
2
) n
= 1 n B( , 1) = 1.
Γ( 2 )Γ( 2 ) 2
Variabile aleatoare continue 139

Momentele repartiţiei Student. Funcţia f fiind pară, media este 0, deci momentele
iniţiale coincid cu cele centrate, iar toate cele de ordin impar sunt nule.
Z Z ∞  − n+1

2k Γ( n+1
2
) 2k x2 2
µ2k = ν2k = x f (x)dx = √ x 1 + dx.
−∞ πnΓ( n2 ) −∞ n

Folosind substituţia x = ny, reducem, ca mai ı̂nainte, la o integrală Beta şi obţinem

nk Γ(k + 12 )Γ( n2 − k) n
µ2k = √ n , dacă − k > 0.
π Γ( 2 ) 2

Folosind proprietăţile funcţiei Γ


n n n n
Γ( ) = ( − 1) . . . ( − k)Γ( − k),
2 2 2 2
1 1 1 1
Γ(k + ) = (k − ) . . . Γ( ),
2 2 2 2
Găsim
nk 1.3. . . . (2k + 1)
µ2k = .
(n − 2)(n − 4) . . . (n − 2k)
Un caz particular ı̂l constituie n = 1, când regăsim repartiţia Cauchy. Următorul rezultat
de comportare la limită a unui şir de variabile aleatoare repartizate Student este utilizat
mult ı̂n statistică.

Teorema 3.6.8 Dacă f este densitatea de probabilitate a variabilei aleatoare repartizate


Student, atunci
1 x2
lim f (x) = √ e− 2 .
n→∞ 2π

Demonstraţie. Vom folosi formula lui Legendre (vezi [10]). Pentru orice a > 0 are loc

1 π
Γ(a)Γ(a + ) = 2a−1 Γ(2a).
2 2
Pentru a arăta că
Γ( n+1 ) 1
lim √ 2 n = √ ,
n→∞ nΓ( 2 ) 2
vom analiza separat cazurile n par şi n impar. Reamintim formula lui Wallis

22n (n!)4
π = lim .
n→∞ n((2n)!)2

Dacă n = 2k, luăm ı̂n formula lui Legendre a = k şi obţinem


√ √
Γ(k + 21 ) πΓ(2k) π(2k − 1)!
√ = √ = √ =
2kΓ(k) 22k+1 Γ2 (k) 2k 22k−1 2k((k − 1)!)2
140 Variabile aleatoare continue

π(2k)!k 2
= √ .
22k−1 2k(k!)2 2k
Din formula lui Wallis, ultimul şir are aceeaşi comportare la limită cu şirul
√ 2k 2
π2 k
√ √
22k−1 2k πk2k
care, pentru k → ∞, tinde evident la √12 . Dacă n = 2k + 1, folosind din nou formula lui
Wallis, obţinem
Γ(k + 1) k!22k−1 (k − 1)!
√ = p =
2k + 1Γ(k + 12 ) (2k + 1)πΓ(2k)
22k−1 2k(k!)2 1
=p → √ , pentru k → ∞.
(2k + 1)π(2k)! 2

Deci pentru un număr mare de grade de libertate, se utilizează tabelele legii normale.
Pentru repartiţia Student există tabele care determină, pentru n = 1, . . . 30, valorile
P ({|X| > δ}) = α, adică ariile haşurate din figură 3.15. De asemenea există tabele pentru
calculul funcţiei de repartiţie Z x
F (x) = f (t)dt,
−∞

adică de determinare a ariilor din Figura 3.16, pentru x > 0. Pentru x < 0, se folosesc
aceleaşi tabele, dar ţinem seama de
Z −x Z x Z ∞
F (−x) = f (t)dt = − f (−t)dt = f (t)dt = 1 − F (x).
−∞ −∞ x

Teorema 3.6.9 Fie X şi Y variabile aleatoare independente repartizate


N (0, σ 2 ) şi H(n, σ) respectiv; atunci variabila aleatoare
X
r
Y
n
este repartizată S(n).

Demonstraţie. Variabila aleatoare bidimensionlă (X, Y ) are densitatea


1 n x2 +y
f (x, y) = √ n+1 y 2 −1 e− 2σ 2 − ∞ < x < ∞, 0 6 y < ∞.
π2 2 σ n+1 Γ( n2 )

Facem schimbarea 
u(x, y) = sx

 y

n .



v(x, y) = y
Variabile aleatoare continue 141

Atunci densitatea de probabilitate a variabilei (U, V ) devine


2
1 n−1 −
( un +1)v
g(u, v) = √ n+1 v 2 e 2σ 2 .
πn2 2 σ n+1 Γ( n2 )
Densitatea marginală a lui U este
Z ∞ Z ∞
n−1 2
1 ( u +1)v
− n 2
g(u, v)dv = v 2 e 2σ dv =
0
n+1 0
√ n
πn2 2 σ n+1 Γ( )
2
n+1
) Γ( Γ(
n+1 
)  n+1
2 −
1 2 u 2
= √ 2 n 1+ ,
n+1 n+1 πnΓ( ) n
√ n  2 
πn2 2 σ n+1 Γ( ) 1 + u 2 2
2  n
 
2σ 2

u2
( + 1)v
aceasta datorită schimbării de variabilă n 2 = t.

Consecinţă. Dacă variabilele aleatoare independente X1 , . . . , Xn+1 sunt repartizate
N (0, σ 2 ), atunci variabila aleatoare
Xn+1
r : S(n).
X12 + . . . + Xn2
n
Demonstraţia este imediată, dacă se foloseşte faptul că X12 + . . . + Xn2 este repartizată
H(n, σ).
Teorema 3.6.10 Fie X1 , . . . , Xn variabile aleatoare independente repartizate
X 1 + . . . Xn
N (0, σ) şi X = . Atunci variabila aleatoare
n
p X
y = n(n + 1) v
uX
u n
t (Xj − X)2
j=1

este repartizată S(n − 1).


Demonstraţie. Alegem aij ∈ IR astfel ı̂ncât matricea
 
a11 . . . a1n
 a21 . . . a2n 
 

A =  ... 

 a(n−1)1 . . . a(n−1)n 
√1 . . . √1n
n
142 Variabile aleatoare continue

să fie ortogonală şi considerăm transformarea


   
y1 x1
 y2   x2 
   
 ..  = A  .. .
 .   . 
yn xn

După cum am văzut mai ı̂nainte, variabilele aleatoare Yj , j = 1, . . . n, sunt independente


şi repartizate N (0, σ). Avem de asemenea

Y12 + . . . + Yn2 = X12 + . . . + Xn2

şi dacă ı̂nmulţim ultima linie a matricei A cu X


yn
X=√ .
n

Deci n n
X X
2
Y12 + ... + 2
Yn−1 = Xj2 − nX = (Xj − X)2 .
j=1 j=1

Atunci variabila aleatoare căutată poate fi scrisă sub forma


p X Yn
Y = n(n − 1) n =r ,
X Y12 2
+ . . . + Yn−1
2
(Xj − X)
j=1
n−1

iar din consecinţa precedentă aceasta este repartizată S(n − 1).


Se poate arăta că variabila aleatoare
Xn
r
X12 + . . . + Xn2
n
este de asemenea repartizată S(n − 1).

Repartiţia Snedecor. Are densitatea de probabilitate dată de


  n21 n1 +n2
  − n1 +n2
n1 Γ n1
−1 n1 2
f (x) = n1
2 n2
x 2 1+ x , 0 6 x < ∞,
n2 Γ 2
Γ 2
n2

unde n1 , n2 ∈ IN se numesc grade de libertate. Vom nota o variabilă aleatoare repartizată


Snedecor prin S(n1 , n2 ). Prin schimbarea de variabilă
n1
x
n2
n1 = y,
1+ x
n2
Variabile aleatoare continue 143
R∞
integrala −∞ f (x)dx este redusă la o integrală Beta şi folosind proprietăţile funcţiei Beta
(Anexa 3) deducem imediat că funcţia de mai sus este o densitate de probabilitate. Mo-
mentele iniţiale ale repartiţiei Snedecor se obţin prin calcul direct
  n21  Z ∞  − n1 +n2
n1 Γ n1 +n
2
2
n
k 21 −1 n1 2
νk =   x x 1+ x dx =
n2 Γ n21 Γ n22 0 n2
 k
n2 Γ(k + n21 )Γ( n22 − k)
=   ,
n1 Γ n21 Γ n22
dacă facem aceeaşi schimbare de variabilă ca mai sus.Ţinând cont de proprietăţile funcţiei
Gama, găsim
 k
n2 n1 (n1 + 2) . . . (n1 + 2k − 2) n2
νk = , k< .
n1 (n2 − 2)(n2 − 4) . . . (n2 − 2k) 2
În particular găsim
n2
ν1 =
n2 − 2

n22 n1 + 2
ν2 = (3.54)
n1 (n2 − 2)(n2 − 4)

n32 (n1 + 2)(n1 + 4


ν3 = 2 .
n1 (n2 − 2)(n2 − 4)(n2 − 6)
Teorema 3.6.11 Fie X1 , X2 două variabile aleatoare independente, care sunt repartizate
S(n1 , n2 ). Atunci variabila aleatoare
n2 X1
: S(n1 , n2 ).
n1 X2
Demonstraţie. Notăm cu U variabila din enunţ şi determinăm funcţia de repartiţie
 
X1 n1
FU (x) = P ({U < x}) = P < x ,
X2 n2
iar prin derivare găsim
n1 n1
fU (x) = fU ( x).
n2 n2
Mai departe vom folosi formula care dă densitatea câtului de variabile aleatoare (3.31)
Z ∞ z n2 xz n1
1 − −1 − −1
fU (x) = n + n e 2z 2 e 2 (xz) 2 zdz,
1 2     0
n1 n2
2 2 Γ Γ
2 2
z(1 + x)
care prin substituţia = t, devine
2
n1 Z ∞   n1 + n2 − 1
1 − 1 2t 2 2
fU (x) = n + n x2 e−t dt =
2  1+x 1+x
n1   n2 
1 0
2 2 Γ Γ
2 2
144 Variabile aleatoare continue
 
n1 + n2
Γ n1 n1 + n2
2 −1 −
= n  n x 2 (1 + x) 2 .
1 2
Γ Γ
2 2
n1
Dacă facem schimbarea de variabilă x = y, se obţine densitatea de probabilitate Sne-
n2
decor.
Consecinţă. Dacă variabilele aleatoare independente Xj , j = 1, n1 , Yk , k = 1, n2 ,
sunt repartizate N (0, σ), atunci variabile aleatoare

n2 X12 + . . . Xn21
n1 Y12 + . . . + Yn22

este repartizată S(n1 , n2 ). Dacă variabila aleatoare X este repartizată S(n1 , n2 ), variabila
1
aleatoare ln X are densitatea de probabilitate
2
  n21   − n1 +n2
n1 Γ n1 +n
2
2
n1 x n1 2x
2
f (x) = 2  e 1+ e . (3.55)
n2 Γ n21 Γ n22 n2
O variabilă aleatoare având această densitate se numeşte Fisher.

Repartiţia Gama. Se verifică imediat că funcţia


1 −x m−1
f (x) = e x , x > 0, m > 0,
Γ(m)
este o densitate de probabilitate. Momentele iniţiale de ordin k sunt
Z ∞
1 Γ(m + k)
νk = e−x xm−1+k dx = = m(m + 1) . . . (m + k − 1).
Γ(m) 0 Γ(m)
Momentele centrate, după particularizarea formulelor (3.39), sunt

µ2 = ν2 − ν12 = m(m + 1) − m2 = m,

µ3 = ν3 − 3ν2 ν1 + 2ν13 = 2m.


Funcţia caracteristică este dată de

ϕ(t) = (1 − it)−m ,

care se obţine din


Z ∞ Z ∞
1 itx −x m−1 1
ϕ(t) = e e x dx = e(it−1)x xm−1 dx,
Γ(m) 0 Γ(m) 0

prin substituţia (it − 1)x = y.


Folosind produsul funcţiilor caracteristice se deduce uşor că dacă Xi este repartizată
Gama cu parametrul mi , i = 1, 2, atunci suma este repartizată Gama cu parametrul
m1 + m2 .
Variabile aleatoare continue 145

Exemplul 3.6.2 Repartiţia Erlang Să determinăm repartiţia sumei de n variabile alea-
toare independente, repartizate exponenţial, cu parametrul λ. Funcţia caracteristică a
repartiţiei exponenţiale este
λ
ϕ(t) = .
λ − it
Sumei de variabile exponenţiale ı̂i corespunde funcţia caracteristică
 n
λ
ϕn (t) = ,
λ − it
iar aceasta corespunde variabilei aleatoare cu densitatea de probabilitate
λe−λx (λx)n−1
f (x) = , x > 0.
(n − 1)!
Să determinăm funcţia de reparticţie a variabilei Erlang.
Z x
λn−1
F (x) = y n−1 λe−λy dy.
(n − 1)! 0
Integrăm prin părţi şi avem
 Z x 
λn−1
F (x) = −y n−1 eλy |x0 + (n − 1)y n−2 −λy
e dy =
(n − 1)! 0
Z x
(λx)n−1 −λx λn−2
=− e + y n−2 λe−λy dy.
(n − 1)! (n − 2)! 0
Repetı̂nd integrarea prin părţi, găsim
n−1
X (λx)k
F (x) = 1 − eλx .
k=0
k!

Recunoaştem ı̂n suma precedentă primii n termeni ai unei repartiţii Poisson. Legătura
dintre aceste două repartiţii va fi evidenţiată la procese Poisson.

Repartiţia Beta. Este definită prin densitatea de probabilitate


xm−1 (1 − x)n−1
f (x) = , 0 6 x 6 1, m > 0, n > 0.
B(m, n)
Momentele sunt date de
m(m + 1) . . . (m + k − 1)
νk = .
(m + n)(m + n + 1) . . . (m + n + k − 1)

În particular avem


m m(m + 1)
ν1 = , ν2 = ,
m+n (m + n)(m + n + 1)
mn
µ2 = ν2 − ν12 = 2
.
(m + n) (m + n + 1)
146 Variabile aleatoare continue

3.7 Fiabilitate
În sensul cel mai larg , fiabilitatea reprezintă proprietatea unui dispozitiv de a-şi
ı̂ndeplini funcţia specifică ı̂n condiţii de exploatare date. O analiză completă a fiabilităţii
ne pune ı̂n evidenţă:
-fiabilitatea precalculată, care se evaluează pornind de la concepţia dispozitivului şi a
componentelor sale;
-fiabilitate tehnică (nominală) determinată ı̂n urma ı̂ncercărilor ı̂n condiţii de fabrică;
-fiabilitate de exploatare, determinată de condiţiile reale de exploatare, cu luarea ı̂n
considerare a acţiunii complexe a tuturor factorilor ce influenţează funcţionarea.
Fiabilitatea poate fi exprimată cantitativ prin parametrii de fiabilitate. Determinarea
lor se face ı̂n practică ı̂n urma prelucrării statistice a datelor. Cel mai frecvent utilizată
este probabilitatea funcţionării fără defecţiune ı̂ntr-un interval de timp. Intervalul de timp
ı̂n care sistemul funcţionează fără defecţiuni este o variabilă aleatoare pe care o notăm cu
T.
Definiţia 3.7.1 Numim funcţie de fiabilitate sau reliabilitate funcţia R : IR+ → [0, 1]
definită prin
R(t) = P ({T > t}).
Observăm că 1 − R(t) este funcţia de repartiţie, care ı̂n sensul fiabilităţii măsoară pro-
babilitatea ca până la momentul t să apară o defecţiune. Funcţia F (t) = 1 − R(t) se mai
numeşte funcţie de nesiguranţă. În strânsă legătură cu proprietăţile funcţiei F (t), putem
enunţa pe cele ale lui R.
1. R(0) = 1;
2. lim R(t) = 0;
t→∞
3. t1 < t2 =⇒ R(t1 ) > R(t2 );
4. Dacă f este densitatea de probabilitate pentru variabila T ,
f (t) = −R0 (t).
În Figura 3.17 sunt reprezentate cele două funcţii.
Observăm că la momentul iniţial funcţia de fiabilitate este maximă, iar nesiguranţa
minimă şi dacă t → ∞ se produce fenomenul invers. Vom presupune că se poate preciza o
funcţie, numită rată de defectare şi notată r, cu proprietatea că r(t)∆t este probabilitatea
ca ı̂n intervalul (t, t + ∆t) să apară o defecţiune, dacă până la momentul t, dispozitivul a
funcţionat . Condiţia din definiţie este o probabilitate condiţionată :
P ({t 6 T < t + ∆t})
r(t)∆t = P ({t 6 T < t + ∆}| {T > t}) = =
P ({T > t})
F (t + ∆t) − F (t) R(t + ∆t) − R(t)
= =− .
R(t) R(t)
În ultima relaţie ı̂mpărţim prin ∆t şi trecem la limită pentru ∆t → 0. Dacă această limită
există, găsim ecuaţia diferenţială
R0 (t)
− = r(t),
R(t)
Variabile aleatoare continue 147

cu condiţia iniţială
R(0) = 1,
care are ca soluţie Rt
R(t) = e− 0 r(s)ds
. (3.56)

Exemplul 3.7.1 Rata de defectare a unui utilaj este r(t) = 0, 1. Cu ce probabilitate


dispozitivul funcţionează cel puţin 10 ore ? Înlocuim ı̂n (3.56) r(t) = 0, 1 şi observăm că
dispozitivul funcţionează cel puţin 10 ore este evenimentul {T > 10}, deci
Z t
− 0, 1ds
R(10) = e 0 = e−1 = 0, 368

În practică sunt utilizate o parte din repartiţiile continue prezentate anterior, dar şi altele
specifice.

Repartiţia exponenţială. are densitatea de probabilitate


 −µt
 µe , dacă t > 0,
f (t) = (µ > 0).

0, dacă t < 0,

Se verifică imediat că f este o densitate de probabilitate. Funcţia de fiabilitate este


Z ∞
R(t) = f (s)ds = eµt ,
t

iar rata de defectare


R0 (t)
r(t) = − =µ
R(t)
este deci constantă. Această repartiţie este utilizată pentru dispozitive care ”nu ı̂mbă-
trânesc”.

Repartiţia Weibull. Are densitatea de probabilitate


 α
 λαtα−1 e−λt , dacă t > 0,
f (t) = (λ, α ∈ R+ ).

0, dacă t < 0

Funcţia de fiabilitate este


α
R(t) = e−λt ,
iar rata de defectare
r(t) = λαtα−1 .
Pentru α = 1 se regăseşte repartiţia exponenţială, iar pentru α = 2 se obţine repartiţia
Rayleigh. Faptul că rata este o funcţie polinomială, face să modeleze mai bine diferitele
situaţii practice; de aceea repartiţia Weibull este des utilizată.
148 Variabile aleatoare continue

Pentru diferite valori ale lui α, ı̂n Figura 3.18 sunt reprezentări grafice ale densităţii
de probabilitate, iar ı̂n Figura 3.19 şi 3.20 ale ratelor şi funcţiilor de fiabilitate.
În general variaţia defecţiunilor unui dispozitiv se poate ı̂mpărţi ı̂n trei perioade.
1. perioada iniţială ı̂n care apar defecţiuni datorate erorilor de fabricaţie şi se face
rodajul (copilăria);
2. perioada de funcţionare care ı̂ncepe după rodaj, când numărul defecţiunilor scade,
rămânând practic constant (maturitatea), pentru care se poate utiliza distribuţia expo-
nenţială;
3. perioada ın care intensitatea de defectare creşte continuu, datorită uzurii (bătrâ-
neţea).
Componentele unui dispozitiv pot fi legate ”ı̂n serie”, sau ”ı̂n paralel”. Vom analiza
modul de determinare a fiabilităţii pentru fiecare situaţie ı̂n parte.

Legare ı̂n serie. Spunem că un dispozitiv are n componente legate ı̂n serie, dacă
defectarea uneia, atrage nefuncţionarea ı̂ntregului sistem. Convenim să vizualizăm prin
schema de la Figura 3.21.
Presupunem că fiecare componentă Ci , i = 1, . . . n, se poate defecta indiferent de
celelalte, cu rata de defectare ri şi funcţia de fiabilitate Ri . Dacă T , respectiv Ti , i =
1, . . . , n semnifică timpul de funcţionare până la prima defectare a sistemului, respectiv a
componentei Ci , atunci evident
n
\
{T > t} = {Ti > t}
i=1

şi aplicând probabilitatea pentru evenimente independente găsim


Z tXn

Yn n
Y − ri (s)ds
0 i=1
R(t) = Ri (t) = e =
i=1 i=1

Z tXn
− ri (s)ds
0 i=1
=e .
Deci rata de defectare este n
X
r(t) = ri (t).
i=1

Observăm că T = min{T1 , . . . , Tn }.

Legare ı̂n paralel. Un dispozitiv are n componente legate ı̂n paralel, dacă acesta
poate funcţiona, chiar dacă una din componente se defectează.
Sistemul nu funcţionează dacă fiecare din componente nu funcţionează; presupunem
că acestea se pot defecta independent una de alta. Atunci obţinem
n
\
{T < t} = {Ti < t}
i=1
Variabile aleatoare continue 149

şi dacă aplicăm probabilitatea


n
Y
1 − R(t) = (1 − Ri (t)) .
i=1

Observăm că T = max{T1 , . . . , Tn }. În acest caz nu putem găsi o expresie simplă a ratei
de defectare a sistemului. În practică aceste moduri de alcătuire apar combinat.
Reprezentăm acest lucru ı̂n Figura 3.22.

Exemplul 3.7.2 În schema alăturată componentele Ci funcţionează independent, cu


aceeaşi funcţie de fiabilitate.
Să determinăm funcţia de fiabilitate a sistemului. Dispozitivul funcţionează la mo-
mentul t, dacă

{T > t} = ({T1 > t} ∩ {T3 > t}) ∪ ({T1 > t} ∩ {T4 > t}) ∪

∪ ({T2 > t} ∩ {T4 > t}) .


Calculăm acum probabilitatea acestei reuniuni, folosind independenţa

R(t) = R1 (t)R3 (t) + R1 R4 (t) + R2 (t)R4 (t) − R1 (t)R3 (t)R4 (t)−

−R1 (t)R2 (t)R4 (t) − R1 (t)R2 (t)R3 (t)R4 (t) + R1 (t)R2 (t)R3 (t)R4 (t) =
= 3R12 (t) − 2R13 (t).
150 Variabile aleatoare continue

PROBLEME PROPUSE

Problema 3.1 O variabilă aleatoare X are repartiţia dată de ”legea triunghiului


dreptunghic” pe intervalul (0, a), a > 0 (vezi Figura 3.24). Găsiţi :
a. densitatea de probabilitate;
b. funcţia de repartiţie;
c. probabilitatea ca variabila aleatoare X să ia valori ı̂n intervalul (a/2, a);
d. media şi dispersia.

Soluţie a. Scriem dreapta cu tăieturile (a, 0) şi (a/2, 0) şi găsim



 2 x
 (1 − ), x ∈ (0, a),
f (x) = a a


0, x∈
/ (0, a) ;

 0,


x 6 0,


 x x
b. F (x) = (2 − ), 0 < x 6 a,

 a a




1, x > 0.
a a 1
c. P ({X ∈ ( , a)}) = F (a) − F ( ) = ;
2 2 4
a 2 a2
d. M [X] = , D [X] = .
3 18

Problema 3.2 Determinaţi funcţia de repartiţie a variabilei aleatoare X, repartizată


1
Cauchy, deci cu densitatea de probabilitate f (x) = π(1+x2) , x ∈ IR.
1
R: F (x) = π
arctan x + 12 .

Problema 3.3 O variabilă aleatoare X are repartiţia Simpson sau ”legea triunghiului
isoscel” pe un interval (−a, a), a > 0.
Găsiţi
a. densitatea de probabilitate;
b. funcţia de repartiţie.

R: Graficul este dat de Figura 3.25




 1 x

 (1 − ), 0 < x < a,

 a a


a. f (x) = 1 x

 (1 + ), −a < x < 0, ;

 a a



 0, |x| > a.
Variabile aleatoare continue 151


 0, x 6 0,





 1 1 2

 2
 a (x + a) + 2a2 (x − a ), −a < x 6 0,

b. F (x) =

 1 1 x2

 + (x − ), 06x<a



 2 a 2a




1, x > a.
Problema 3.4 Determinaţi media şi dispersia variabilei aleatoare exponenţiale, având
densitatea de probabilitate
 −λx
 λe , x > 0,
f (x) =

0, x < 0.

1 1
R: M [X] = , D2 [X] = 2 .
λ λ
Problema 3.5 Determinaţi media şi dispersia repartiţiei Laplace, cu densitatea de
λ
probabilitate f (x) = e−λ|x| , λ > 0, ∀x ∈ IR.
2
2
R: M [X] = 0, D2 [X] = 2 .
λ
Problema 3.6 Determinaţi media şi dispersia variabilei aleatoare repartizată uniform
pe intervalul (a, b).
a+b (a − b)2
R: M [X] = , D2 [X] = .
2 12
Problema 3.7 O variabilă aleatoare este repartizată normal N (m, σ 2 ). Să aproximăm
X pe un interval (α, β) cu legea uniformă, dacă m, σ rămân constanţi.
Soluţie. Folosim problema precedentă şi egalăm mediile şi abaterile medii pătratice

α+β β−α
= m, √ =σ
2 2 3
√ √
de unde α = m − σ 3, β = m + σ 3.
Problema 3.8 O variabilă aleatoare X : N (m, σ 2 ) poate avea parametrii m = 2, σ = 2
cu probabilitatea 0,4 sau m = 2, σ = 1 cu probabilitatea 0,6 determinaţi densitatea de
probabilitate.
Soluţie . Folosim generalizarea formulei probabilităţii totale, din 3.2. Avem

0, 4 (x−2)2 0, 6 (x−2)2
f (x) = √ e− 8 + √ e− 2 .
2 2π 2π

Problema 3.9 Într-o secţie se produc articole care corespund calitativ, dacă satisfac o
anumită proprietate măsurabilă printr-o caracteristică numerică. Se observă unele deviaţii
152 Variabile aleatoare continue

de la normele impuse, care sunt repartizate normal, cu media m = 0 şi abaterea σ. La


controlul de calitate se elimină acele produse ale căror deviaţii depăşesc mărimea ∆.
Determinaţi probabilitatea evenimentului A ” un articol este respins”.
R : P (A) = P ({|X| > ∆}) = 1 − 2Φ( ∆ σ
).
Problema 3.10 Fie α, a > 0 şi n ∈ IN . Determinaţi a şi α astfel ca funcţia
2 x2
fn (x) = axn e−α , x>0

să fie o densitate de probabilitate pentru o variabilă aleatoare cu media m.


Soluţie. Punem condiţiile
Z +∞ Z +∞
n −α2 x2 2 x2
ax e dx = 1, axn+1 e−α dx = m
0 0

şi găsim
2αn+1 1 Γ( n+2
2
)
a= n+1 , α = n+1 .
Γ( 2 ) m Γ( 2 )

Problema 3.11 Un mesaj este aşteptat printr-un canal de comunicaţie. Momentul


T la care mesajul este primit este aleator şi are funcţia de densitate f (t). La un moment
dat τ , se observă că mesajul nu a ajuns ı̂ncă. Determinaţi densitatea de probabilitate φ
a timpului care rămâne până la recepţionarea mesajului, Θ.
Soluţie . Fie A evenimentul ”mesajul nu a fost recepţionat până la momentul τ ”.
Folosind formula lui Bayes, găsim

 f (t)

 Rτ , t > τ,
f (t) 1 − 0 f (t)dt
fA (t) = =
P (A)  

0, t < τ.

Deoarece Θ = T − τ , rezultă

 f (t)

 Rτ , t > 0,
1 − 0 f (t)dt
φ(t) =



0, t < 0.

Problema 3.12 Un sistem de comunicaţie acceptă un voltaj pozitiv V la intrare, iar


la ieşire un voltaj Y = αV + N , unde α = 10−2 , iar N este o variabilă aleatoare normală
cu m = 0, σ = 2. Ce valoare trebuie să ia V , astfel ca la ieşire voltajul să fie pozitiv cu
siguranţa 1 − ,  = 10−6 .
Soluţie . Punem condiţia ca P ({Y < 0}) = 10−6 şi găsim
 
1 αV
P ({Y < 0}) = P ({αV + N < 0}) = P ({N < −αV }) = − Φ .
2 σ
Variabile aleatoare continue 153

De aici găsim că V = 950, 6.


Problema 3.13 Legea evenimentelor rare ı̂n plan. Un semnal luminos se poate produce
aleator cu densitatea λ, pe cadranul unui osciloscop. Găsiţi repartiţia R, care dă distanţa
de la semnal, la cel mai apropiat ”vecin”, media şi dispersia.
Soluţie . Evenimentul {R < r} ı̂nseamnă că cel puţin un semnal se produce ı̂n in-
teriorul discului de rază r. Numărul mediu de apariţii ı̂n acest disc este πr2 λ, deci
2
P ({R < r}) = 1 − P ({R > r}) = 1 − e−πr λ , r > 0, dacă generalizăm raţionamentul de
2
la legea Poisson. Densitatea de probablitate, este f (r) = 2πλre−πr λ , r > 0. Această
repartiţie este repartiţia Rayleigh.
1 (4 − π)
M [R] = √ , D2 [R] = .
2 λ 4πλ
Analog se poate deduce repartiţia evenimentelor rare ı̂n spaţiu, care are densitatea de
4 3
probabilitate f (r) = 4πr2 λe−λ 3 πr , r > 0, unde r este raza unei sfere alese convenabil.
Problema 3.14 În timpul funcţionării unui calculator, defecţiunile pot apărea la
momente aleatoare. Timpul T ı̂n care acesta funcţionează fără defecţiuni, urmează o lege
exponenţială cu parametru ν, adică φ(t) = νe−νt , ν > 0. Dacă o defecţiune apare este
imediat ı̂ndepărtată ı̂ntr-un interval de timp t0 , după care calculatorul funcţionează din
nou. Notăm cu Z intervalul de timp ı̂ntre două defecţiuni. Aflaţi P ({Z > 2t0 }).
Soluţie. Avem Z = T + t0 şi funcţia de repartiţie este

F (t) = P ({Z < t}) = P ({T < t − t0 }) = FT (t − t0 ).

Prin derivare 
0 νe−ν(t−t0 ) , t > t0
F (t) = fT (t − t0 ) = .
0, t<0
Atunci P ({Z > 2t0 }) = e−νt0 .
Problema 3.15 Timpul T ı̂ntre două defecţiuni ale unui calculator, urmează o lege
exponenţială cu parametru λ. Rezolvarea unei anumite probleme necesită funcţionarea
fără defecţiuni a componentelor pentru un timp τ ; dacă o defecţiune apare ı̂n timpul
rezolvării, problema poate fi reluată. Fie Θ variabila aleatoare care reprezintă intervalul
de timp ı̂n care problema va fi rezolvată. Să determinăm repartiţia şi media variabilei
aleatoare Θ.
Soluţie. Dacă problema a fost rezolvată ı̂n intervalul τ , ı̂nseamnă că T > τ şi R(τ ) =
P ({T > τ }) = e−τ λ , pe care o notăm p. Evenimentul contrar se produce cu probabilitatea
1 − p. Dacă problema a fost rezolvată ı̂n intervalul ((n − 1)τ, nτ ), aceasta ı̂nseamnă că au
survenit defecţiuni ale calculatorului ı̂n intervalele (0, τ ), (τ, 2τ ), . . . ((n − 2)τ, (n − 1)τ )
şi aceasta se ı̂ntâmplă cu probabilitatea p(1 − p)n−1 . Variabila căutată este
 

Θ:
p(1 − p)n−1
τ
care are media .
p
Problema 3.16 Durata vieţii unui circuit integrat normal este dată de o lege ex-
ponenţială cu rata α, iar a unui circuit rebut 1000α. Probabilitatea de a extrage un
154 Variabile aleatoare continue

circuit integrat normal dintr-un lot este p. Găsiţi probabilitatea ca alegı̂nd un circuit la
ı̂ntâmplare, acesta să funcţioneze după t secunde. Presupunem că fiecare este testat t
secunde. Pentru ce valoare a lui t, 99% dintre circuite sunt bune.
Soluţie . Fie B evenimentul de a ”alege un circuit normal”, R de a ”alege un circuit
rebut”, iar C de a ”alege un circuit care să funcţioneze după t secunde”. Are loc, dacă
folosim formula probabilităţii totale

P (C) = pe−αt + (1 − p)e−1000αt .

Calculăm PC (B) cu formula lui Bayes şi din condiţia PC (B) = 0, 99, avem
1 (1 − p)99
t= ln .
999α p
Problema 3.17 Variabila aleatoare (X, Y ) are densitatea de probabilitate f (x, y). Ex-
primaţi probabilităţile următoarelor evenimente: 1.{X > Y }, 2.{X > |Y |}
3.{|X| > Y } 4.{Y − X > 1}.
Z +∞ Z +∞
Soluţie 1. P ({X > Y }) = dy f (x, y)dx;
−∞ y
Z +∞ Z x
2. P ({X > |Y |}) = dx f (x, y)dy;
0
Z 0 −x
Z −x Z +∞ Z x
3. P ({|X| > Y }) = dx f (x, y)dy + dx f (x, y)dy;
−∞ −∞
Z +∞ Z +∞ 0 −∞

4. P ({Y − X > 1}) = dx f (x, y)dxdy.


−∞ x+1
Domeniile de integrare sunt reprezentate mai jos.
Problema 3.18 Variabila aleatoare X are repartiţia exponenţială cu densitatea f (x) =
λe , x > 0. Să determinăm condiţiile ı̂n care variabila aleatoare Y = eX are medie şi
−λx

dispersie.
Z +∞ Z +∞
x −λx
Soluţie. M [Y ] = e λe dx = λ e−(λ−1)x dx. Pentru λ > 1, există media
0 0
λ
egală cu . Pentru λ 6 1, integrala din definiţia mediei este divergentă. Pentru
λ−1
λ
λ > 2, M [Y 2 ] = şi deci există dispersie, iar dacă λ 6 2 aceasta nu există.
λ−2
Problema 3.19 Variabila aleatoare X are densitatea de probabilitate
1 π π
f (x) = cos x, x ∈ (− , );
2 2 2
calculaţi media şi dispersia variabilelor aleatoare X şi Y = | sin X|.
Z π
π2 1 2 1 1
2
Soluţie. M [X] = 0, D [X] = − 2, M [Y ] = | sin x| cos xdx = , D2 [Y ] = .
4 2 − π2 2 12
Problema 3.20 Variabilele aleatoare X şi Y au repartiţii exponenţiale

f1 (x) = λe−λx , x > 0; f2 (x) = µe−µy , y > 0.


Variabile aleatoare continue 155

Determinaţi densitatea de probabilitate f (x, y) şi funcţia de repartiţie F (x, y) pentru


variabila aleatoare bidimensională (X, Y ), dacă X, Y sunt independente.
Soluţie.

 0 x 6 0 sau y 6 0,
f (x, y) =

λµe−(λx+µy) , x > 0 şi y > 0;

 0, x 6 0 sau y 6 0,
F (x, y) =

(1 − e−λx )(1 − e−µy) , x > 0 şi y > 0.

Problema 3.21 Variabila aleatoare (X, Y ) este repartizată constant ı̂n pătratul de
latură a, pe care ı̂l notăm D şi nulă ı̂n afară. Determinaţi f (x, y) şi F (x, y), funcţiile de
densitate marginale f1 (x), f2 (y). Stabiliţi dacă X şi Y sunt independente.
Soluţie.

 1
 2 , (x, y) ∈ D,
f (x, y) = a


0, (x, y) ∈/ D;


 0, x 6 0 sau y 6 0,





 xy

 , 0 6 x 6 a, şi 0 6 y 6 a,

 a2



 y
F (x, y) = , x > a şi 0 < y 6 a,

 a



 x



 , 0 < x 6 a şi y > a,

 a




1, x > 0 şi y > a;
 
 1  1
 , x ∈ (0, a),  , y ∈ (0, a)
fX (x) = a fY (y) = a

 

0, x ∈
/ (0, a); 0, y ∈
/ (0, a).

Problema 3.22 Funcţia f (x, y) este constantă ı̂n interiorul unui cerc de rază r şi
nulă ı̂n afară. Determinaţi raza r astfel ca f (x, y) să fie o densitate de probabilitate pen-
tru o variabilă aleatoare bidimensională (X, Y ), fX (x), fY (y), fX (x|y), fY (y|x). Calculaţi
Cov[X, Y ].
Soluţie. Căutăm densitatea de probabilitate de forma

h, x2 + y 2 < r2 ,
f (x, y) =
0, x2 + y 2 > r2 .
156 Variabile aleatoare continue

RR q
2 1
Punem condiţia ca 1 = f (x, y)dxdy = hπr . Deci r = πh
.
 √  p
2h r2 − x2 , |x| < r, 2h r2 − y 2 , |y| < r,
fX (x) = fY (y) =
0, |x| > r; 0, |y| > r;
 p
1
f (x, y) p , r2 − y 2 ,
|x| <
fX (x|y) = = 2 r2 − y 2 p
fY (y) 
0, |x| > r2 − y 2 ;

1 √
f (x, y)  √ 2 |y| < r2 − x2 ,
,
fY (y|x) = = 2 r − x2 √
fX (x)  0, |y| > r2 − x2 .
RR
Avem imediat M [X] = M [Y ] = 0, D[X] = D[Y ] = 2r . M [XY ] = xyf (x, y)dxdy = 0.
Deci Cov[X, Y ] = 0.
Problema 3.23 O variabilă aleatoare are densitatea de probabilitate constantă ı̂n
pătratul D din Figura 3.30.
Găsiţi f (x, y), fX (x), fY (y), fX (x|y), fY (y|x) şi stabiliţi dacă sunt independente; dar
corelate ?
Soluţie.
( 1 
, (x, y) ∈ D, 1 − |x|, |x| < 1,
f (x, y) = 2 fX (x) =
0, (x, y) ∈/ D; 0, |x| > 1.

Analog 
1 − |y|, |y| < 1,
fY (y) =
0, |y| > 1,
care sunt repartizate Simpson.

 1
f (x, y) , |x| < 1 − |y|
fX (x|y) = = 2(1 − |y|)
fY (y)  0, |x| > 1 − |y|;

1
f (x, y)  , |y| < 1 − |x|
fX (x|y) = = 2(1 − |x|)
fX (x)  0, |y| > 1 − |x|.
X şi RY nu sunt independente, dar nici corelate. M [X] = M [Y ] = 0, iar M [XY ] =
R +∞ +∞
−∞ −∞
xyf (x, y)dxdy = 0. Cov[X, Y ] = 0.
Problema 3.24 Variabila aleatoare (X, Y ) este uniform repartizată ı̂n interiorul unui
cerc de rază r = 1 cu interiorul D. Găsiţi media şi dispersia variabilei Z = XY .
Z Z Z Z
1 1 1
Soluţie. M [XY ] = 2
xydxdy = 0; D [XY ] = x2 y 2 dxdy = .
π D π D 8
Problema 3.25 O variabilă aleatoare (X, Y ) este uniform repartizată ı̂ntr-un pătrat
de latură 1. Găsiţi media şi dispersia variabilei XY .
Variabile aleatoare continue 157

1
Soluţie. Pentru că X şi Y sunt independente M [XY ] = M (X)M (Y ) = ; D2 [XY ] =
4
1
.
144
2
Problema 3.26 Variabilele X şi Y sunt legate prin Y = 2 − 3X şi mx = −1, DX = 4.
2
Găsiţi my , DY , Cov[X, Y ], ρ[X, Y ].
R: M [Y ] = M [2 − 3X] = 2 − 3(−1) = 5;D2 [Y ] = (−3)2 4 = 36. Din M [X 2 ] =
D2 [X] + M 2 [X], deducem M [X 2 ] = 5 Cov[X, Y ] = M [X(2 − 3X]) + 1 × 5 = −12
−12
ρ[X, Y ] = = −1.
D[X]D[Y ]
Problema 3.27 Variabilele aleatoare X, Y, Z au mediile mx , my , mz şi matricea de
covarianţă  
D[ X] Cov[X, Y ] Cov[X, Z]
 
 
 Cov[X, Y ] D [
Y ] Cov[Y, Z] .
 
 
[
Cov[X, Z] Cov[Y, Z] D Z]
Găsiţi media şi dispersia variabilei U = aX − bY + cZ − d, a, b, c, d ∈ IR.
R: M [U ] = a mx − b my + c mz − d, D2 [U ] = a2 D[ X] + b2 D[ Y ] + c2 D2 [Z] −
2 a b Cov[X, Y ] + 2 a c Cov[X, Z] − 2 b c Cov[Y, Z].
Problema 3.28 X, Y sunt variabile aleatoare independente X : N (1, 4), Y : U (0, 2).
Găsiţi M [X + Y ], M [XY ], M [X 2 ], M [X − Y 2 ], D2 [X + Y ], D2 [X − Y ].
R: M [X + Y ] = 2, M [XY ] = M [X]M [Y ] = 1, M [X 2 ] = 5, M [X − Y 2 ] =
1 13
− , D2 [(X + Y )] = D2 [(X − Y )] = .
3 3
Problema 3.29 Densitatea de probabilitate a unei variabile aleatoare bidimensionale
normale este
1 − 1.281
((x−2)2 −1,2(x−2)(y+3)+(y+3)2 ) .
f (x, y) = e
1, 6π
Calculaţi covarianţa variabilelor marginale.
R: Cov[X, Y ] = 0, 6.
Problema 3.30 Un voltmetru ı̂nregistrează cea mai mare dintre două tensiuni V1 , V2 .
Variabilele V1 , V2 sunt independente şi au aceeaşi densitate f (v). Găsiţi media variabilei
V = max{V1 , V2 }.
Z +∞ Z v1 Z +∞ Z v2
Soluţie. m = x1 dv1 f (v2 )dv2 + v2 f (v2 )dv2 f (v1 )dx1 .
−∞ −∞ −∞ −∞
158 Variabile aleatoare continue
Capitolul 4

Probleme la limită ı̂n teoria


probabilităţilor

Baza teoretică a statisticii matematice, care conferă garanţii asupra valabilităţii stu-
diului statistic al fenomenelor aleatoare, se sprijină pe proprietăţile de convergenţă ale
şirurilor de variabile aleatoare. Prezentăm principalele tipuri de convergenţă şi unele
proprietăţi ale şirurilor de variabile aleatoare referitoare la acestea.

4.1 Convergenţa ı̂n probabilitate


Fie { E, K, P } un câmp de probabilitate, {Xn }n∈IN un şir de variabile aleatoare, X
o variabilă aleatoare, toate definite pe {E, K, P }.
Definiţia 4.1.1 Şirul {Xn }n∈IN converge ı̂n probabilitate către X (vom folosi notaţia
prob
{Xn } −→ X) dacă
∀ε > 0 : lim P ({e ∈ E | |Xn (e) − X(e) | > ε}) = 0 (4.1)
n→∞

sau, echivalent,
∀ε > 0 : lim P ({e ∈ E | |Xn (e) − X(e) | 6 ε}) = 1. (4.2)
n→∞

Observaţia 4.1.1 Se poate defini şi convergenţa ı̂n probabilitate a şirului de variabile
aleatoare {Xn }n∈IN către constanta c deoarece orice constantă este un caz particular de
variabilă aleatoare.

Proprietăţi ale convergenţei ı̂n probabilitate.


Propoziţia 4.1.1 Limita unui şir de variabile aleatoare convergent ı̂n probabilitate este
unică aproape sigur.
prob
Demonstraţie. Arătăm că dacă există două variabile aleatoare X şi Y astfel ı̂ncât {Xn } −→
prob
X, {Xn } −→ Y atunci P ({X 6= Y }) = 0. Fie
ε < | X − Y | = | X − Xn + Xn − Y | 6 | X − Xn | + | Xn − Y |

159
160 Probleme la limită

de aici rezultă
ε ε
{ | X − Y | > ε} ⊆ { | X − Xn | > } ∪ { | Xn − Y | > },
2 2
deci
ε
P ({ | X − Y | > ε} 6 P ({ | X − Xn | > })+
2
ε
+P ({ | Xn − X | > }).
2
prob prob
Deoarece {Xn } −→ X şi {Xn } −→ Y rezultă, trecând la limită,
ε
0 6 P ({ | X − Y | > ε}) 6 lim P ({ | X − Xn | > })+
n→∞ 2
ε
+ lim P ({ | Xn − Y | > }) = 0
n→∞ 2
deci P ({| X − Y | > ε}) = 0.

prob prob prob


Propoziţia 4.1.2 Dacă {Xn } −→ X, {Yn } −→ Y şi a, b ∈ IR atunci {aXn + bYn } −→
aX + bY .

Demonstraţie. Fie ε > 0. Urmând un raţionament analog cu cel folosit ı̂n proprietatea
precedentă, putem scrie

P ({|(aXn + bYn ) − (aX + bY )| > ε}) = P ({|a(Xn − X) + b(Yn − Y )| > ε}) 6

ε ε
6 P ({|a||Xn − X| > }) + P ({|b||Yn − Y | > }).
2 2
prob prob
Ţinând seama că {Xn } −→ X şi {Yn } −→ Y şi trecând la limită obţinem

lim P ({|(aXn − bYn ) − (aX + bY )| > ε}) = 0


n→∞

prob
adică {aXn + bYn } −→ aX + bY .

4.2 Legea numerelor mari (forma slabă)


Un tip de probleme la limită, bazat pe noţiunea de convergenţă ı̂n probabilitate, cu
semnificaţie de maximă importanţă asupra legăturii dintre conceptele de bază ale teoriei
probabilităţii şi noţiunile empirice, este cel cunoscut sub denumirea de legea numerelor
mari. Aceasta este un ansamblu de rezultate privind convergenţa către 1 a probabilităţilor
unui şir de evenimente depinzând de un număr crescând de factori aleatori.
Probleme la limită 161

Teorema 4.2.1 Fie (Yn )n∈IN un şir de variabile aleatoare admiţând valori medii şi dis-
persii finite şi fie
M [Yn ] = Mn < ∞, D2 [Yn ] = σn2 < ∞.
Dacă există o constantă M astfel ı̂ncât
lim Mn = M şi lim σn2 = 0, (4.3)
n→∞ n→∞

atunci
prob
{Yn } −→ M.
Demonstraţie. Observăm că pentru orice ε > 0
ε ε
{|Yn − M | > ε} ⊆ {|Yn − Mn | > } ∪ {|Mn − M | > }.
2 2
Putem scrie
ε ε
P ({|Yn − M | > ε}) 6 P ({|Yn − Mn | > }) + P ({|Mn − M | > }). (4.4)
2 2
Aplicând inegalitatea lui Cebâşev variabilei aleatoare Yn obţinem
D2 [Yn ] σn2
P ({|Yn − Mn | > ε}) 6 = . (4.5)
ε2 ε2
Deorece lim Mn = M rezultă că ∀ε > 0, ∃ N (ε) ∈ IN astfel ı̂ncât ∀n > N (ε) inegalitatea
n→∞
ε
|Mn − M | > devine imposibilă, adică
2
∀n > N (ε) : P ({|Mn − M | > ε}) = 0.
Trecând la limită ı̂n (4.4), ţinând seama de (4.5) şi de ipotezele (4.3) rezultă
lim P ({|Yn − M | > ε}) = 0.
n→∞

Teorema 4.2.2 (forma slabă a teoremei lui Jacob Bernoulli)


Sn
Prima formulare: Dacă A un eveniment caracterizat prin P (A) = p 6= 0 şi frecvenţa
n
relativă de realizare a evenimentului A ı̂n primele n probe ale unui şir infinit de probe
independente, atunci
Sn
∀ε > 0 : lim P ({| − p| > ε}) = 0
n→∞ n
sau, echivalent,
Sn
∀ε > 0 : lim P ({| − p| 6 ε}) = 1.
n→∞ n
A doua formulare: Dacă {Xn }n∈IN un şir de variabile aleatoare independente astfel
n
1X
ı̂ncât Xn : Bi(n, p), n ∈ IN , atunci şirul de variabile aleatoare { Xk }n∈IN converge ı̂n
n k=1
n
1X prob
probabilitate către p, adică { Xk } −→ p.
n k=1
162 Probleme la limită

Demonstraţie. Demonstrăm teorema lui Bernoulli sub cea de-a doua formă. Notăm
n
1X
Yn = Xk
n k=1

şi ţinem seama că


n n
1X 1 1 X 2 npq pq
M [Yn ] = M [Xk ] = np = p, D2 [Yn ] = 2 D [Xk ] = 2 = ,
n k=1 n n k=1 n n

deci lim M [Yn ] = p şi lim D2 [Yn ] = 0, ceea ce arată că ipotezele Teoremei 4.2.1 sunt
n→∞ n→∞
n
1X prob
satisfăcute, deci { Xk } −→ p.
n k=1
Observaţii.

1. Prima formulare a teoremei lui Bernoulli constituie justificarea teoretică a apropierii


făcute ı̂ntre conceptele de frecvenţă relativă şi probabilitate a unui eveniment. Ea
exprimă faptul că pentru şiruri foarte mari de probe orice diferenţă sensibilă ı̂ntre
frecvenţa relativă a unui eveniment şi probabilitatea sa devine foarte improbabilă.
Deci convergenţa frecvenţelor relative către probabilitatea evenimentului nu trebuie
ı̂nţeleasă ca o convergenţă numerică obişnuită; nu rezultă din teorema de mai sus
şi nici nu este intuitiv acceptabilă ideea că odată cu creşterea numărului de probe
valorile frecvenţelor relative sunt, obligatoriu, mai apropiate de probabilitate.

2. Cele două formulări decurg una din cealaltă dacă ţinem seama că frecvenţa absolută
de realizare a lui A ı̂n n probe. Fie Xn o variabilă aleatoare repartizată Bi(n, p).
Xn n
Sn 1X
Dacă notăm Sn = Xk , atunci = Xk şi deci
k=1
n n k=1

Sn
lim P ({| − p| > ε}) = 0
n→∞ n
ceea ce nu ı̂nseamnă altceva decât că
n
1X prob
{ Xk } −→ p.
n k=1

3. Rezultatul teoremei constituie justificarea teoretică a definiţiei noţiunii de estima-


ţie a unui parametru al unei repartiţii, noţiune de mare importanţă ı̂n statistica
matematică.

Teorema 4.2.3 (Cebâşev) Dacă (Xn )n∈IN este un şir de variabile aleatoare independente
două câte două, având dispersiile mărginite de o aceeaşi constantă

D2 [Xn ] 6 c2 , n ∈ IN,
Probleme la limită 163

atunci
n n
1X 1X
∀ε > 0 : lim P ({| Xk − M [Xk ]| > ε}) = 0
n→∞ n k=1 n k=1
sau, echivalent,
n n
1X 1X
∀ε > 0 : lim P ({| Xk − M [Xk ]| 6 ε}) = 1,
n→∞ n k=1 n k=1

adică are loc convergenţa ı̂n probabilitate a şirul de variabile aleatoare,


n
1X prob
{ (Xk − M [Xk ])} −→ 0.
n k=1

n
1X
Demonstraţie. Dacă Yn = (Xk − M [Xk ]) atunci
n k=1
n n n
1X 1X 1X
M [Yn ] = M [ (Xk − M [Xk ])] = M [Xk ] − M [Xk ] = 0
n k=1 n k=1 n k=1

şi deoarece variabilele aleatoare Xn sunt independente două câte două, rezultă (Xk − M [Xk ])
sunt independente două câte două şi deci

n n n
1X 1 X 2 1X 2
D2 [Yn ] = D2 [ (Xk − M [Xk ])] = 2 D [Xk − M [Xk ]] = D [Xk ].
n k=1 n k=1 n k=1

Aplicând inegalitatea lui Cebâşev variabilei aleatoare Yn şi ţinând seama de ipotezele
problemei, putem scrie
n n n
1X 1X 1 X 2 nc2 c2
P ({| Xk − M [Xk ]| > ε}) 6 2 2 D [Xk ] < 2 2 = 2
n k=1 n k=1 n ε k=1 nε nε

şi deci
n n
1X 1X c2
lim P ({| Xk − M [Xk ]| > ε}) 6 lim = 0.
n→∞ n k=1 n k=1 n→∞ nε2

Teorema 4.2.4 (Markov) Dacă variabilele aleatoare X1 , X2 , . . . , Xn , . . . au proprietatea


că:
Xn
2
D [ Xi ]
i=1
→ 0, n → ∞,
n2
atunci are loc legea numerelor mari.
164 Probleme la limită

Demonstraţie. Trebuie demonstrat că şirul {Xn }n∈IN verifică relaţia:


n n
1X 1X
∀ε > 0 : lim P ({| Xk − M [Xk ]| 6 ε}) = 1.
n→∞ n k=1 n k=1

Aplicăm inegalitatea lui Cebâşev pentru variabilele aleatoare:


Xn Xn X n
1
Y = Xi /n, D2 [Y ] = D2 [ Xi /n] = 2 D2 [ Xi ] → 0, n → ∞.
i=1 i=1
n i=1

Deci D2 [Y ] < ∞ şi atunci are loc inegalitatea lui Cebâşev:


n
1 1 2X
P (|Y − M [Y ]| 6 ε) > 1 − D [ Xi ].
ε2 n2 i=1
n
1 2X
Dar D [ Xi ] → 0, dacă n → ∞. Trecând la limită ı̂n inegalitatea precedentă,
n2 i=1
obţinem afirmaţia teoremei.

Observaţia 4.2.1 În cazul particular când variabilele aleatoare sunt independente, condi-
ţia din enunţ se scrie:
Xn
D2 [Xi ]
i=1
→ 0, n → ∞.
n
Teorema 4.2.5 (Hincin) Dacă {Xn }n∈IN este un şir de variabile aleatoare independente
două câte două urmând aceeaşi repartiţie şi având dispersii finite, atunci
n
1X
lim P ({| Xk − M | > ε}) = 0.
n→∞ n k=1

unde M = M [Xn ], n ∈ IN.


Demonstraţie. Dacă variabila aleatoare {Xn }n∈IN urmează aceeaşi repartiţie, rezultă
D2 [Xn ] = σ 2 , n ∈ IN , ceea ce implică satisfacerea ipotezelor Teoremei lui Cebâşev.
Observaţie. Acest rezultat fundamentează teoretic procesul uzual de aproximare a
mediei caracteristicii studiate a unei populaţii statistice prin media atitmetică a valorilor
observate. Într-adevăr, dacă X1 , X2 , . . . Xn , . . . sunt privite ca valori potenţiale ale unei
variabile aleatoare X obţinute printr-un şir de probe independente, atunci teorema arată
că media aritmetică a acestora converge către M = M [X].
Ca un caz particular al teoremei lui Cebâşev se obţine teorema lui Poisson.
Teorema 4.2.6 (Poisson) Fie A un eveniment a cărui probabilitate de realizare variază
pe parcursul unui şir de probe independente, astfel ı̂ncât la proba de rang k, P (A) =
Sn
pk , k = 1, 2, . . . şi fie frecvenţa de realizare a evenimentului A ı̂n primele n probe.
n
Atunci
Sn p1 + p2 + . . . + pn
lim P ({ | − | > ε}) = 0.
n→∞ n n
Probleme la limită 165

Demonstraţie. Definim, pentru fiecare k = 1, 2, . . . n, . . . variabila aleatoare Xk ce ia


valorile 1 sau 0 după cum A se realizează sau nu ı̂n proba de rang k. În consecinţă, Xk
este definită  
0 1
Xk : .
1 − pk pk
Notând cu Sn numărul de realizări ale lui A ı̂n primele n probe, se constată
n
Sn 1X
fn (A) = = Xk .
n n k=1

Deoarece X1 , X2 , . . . Xn , . . . sunt variabile aleatoare independente şi deoarece


1
M [Xk ] = pk , D2 [Xk ] = M [Xk2 ] − M [Xk ]2 = pk − p2k = pk (1 − pk ) 6 ,
4
rezultă că şirul {Xn }n∈IN verifică ipotezele Teoremei lui Cebâşev şi deci
Sn p1 + p2 + . . . + pn
lim P ({ | − | > ε}) =
n→∞ n n
n n
1X 1X
= lim P ({ | Xk − M [Xk ] | > ε)} = 0.
n→∞ n k=1 n k=1

4.3 Aproximări pentru repartiţii discrete


Reamintim că o variabilă aleatoare binomială care ia n valori pote fi scrisă ca o sumă
de n variabile aleatoare X1 , X2 , . . . Xn ,
 
0 1
Xk : , k = 1, n.
1−p p
n
X
Atunci Y = Xk este o variabilă aleatoare repartizată binomial, Bi(n; p). Am văzut că
k=1
o variabilă aleatoare binomială, Bi(n; p), pentru valori mari ale lui n poate fi aproximată
cu o variabilă aleatoare Poisson, dacă p este suficient de mic astfel ı̂ncât np = λ =
constant. Vom arăta că o variabilă aleatoare binomială, Bi(n; p) poate fi aproximată cu
o variabilă aleatoare repartizată normal pentru orice valoare fixată a lui p şi pentru n
suficient de mare.
De exemplu, aruncăm un ban de 100 de ori. Ne interesează probabilitatea ca să
obţinem faţa care conţine banul de 50 de ori. Răspunsul
50 1 100! 1
p = C100 =
2100 50!50! 2100
este nesatisfăcător deoarece nu ne dă nici o idee asupra mărimii probabilităţii. Nu putem
stabili dacă această probabilitate este ı̂n jurul lui 1/2 sau 1/10 sau 1/50. Dificultatea
apare ı̂n calculul lui n! pentru n suficient de mare.
166 Probleme la limită

Problema care se pune este de a găsi o altă funcţie h(n) care să constituie o bună
aproximare ı̂n pentru n! (o bună aproximare ı̂n sensul că n! şi h(n) să crească aproape la
n!
fel de repede odată cu n, sau |n! − h(n)| să fie mic când n creşte sau lim = 1).
n→∞ h(n)

Definiţia 4.3.1 Fie f, g : IR → IR. Spunem că f şi g sunt asimptotic egale şi notăm
f ∼ g dacă
f (n)
lim = 1.
n→∞ g(n)

Relaţia ”f şi g sunt asimptotic egale ” este o relaţie de echivalenţă pe mulţimea funcţiilor
neidentic nule. Proprietăţile de reflexivitate, simetrie şi tranzitivitate rezultă imediat.
De exemplu, un polinom ı̂n variabila n este asimptotic egal cu termenul său dominant.
În cele ce urmează vom ı̂ncerca să găsim o funcţie h(n) astfel ı̂ncât

n!
lim = 1.
n→∞ h(n)

Expresia unei astfel de funcţii este sugerată de formula lui Stirling (vezi Anexa 2)
n √ √
h(n) = ( )n n 2π.
e
Pare mai neplăcut să calculăm h(n) decât n!, dar este mult mai uşor deoarece puterile
sunt mai lesne de calculat. Să aplicăm ı̂n cazul exemplului dat

50 1 100! 1
p = C100 = ,
200 50!50! 2100
√ √
( 100
e
)100 100 2π 1 100 100 10 1 2100 1
p∼ = ( ) √ = √ =
( 50
e
)100 50 2π 2100 50 50 2π 2100 5 2π 2100
1
= √ = 0, 0797884 ≈ 0, 08.
5 2π
Teorema 4.3.1 (teorema locală Moivre-Laplace).
Presupunem 0 < p < 1 şi q = 1 − p iar
k − np
xn,k = √ , 0 6 k 6 n. (4.6)
npq

Dacă M o constantă pozitivă arbitrară fixată, atunci pentru acei k pentru care

|xn,k | 6 M

avem 2
xn,k
1
Cnk pk q n−k ∼√ e− 2 . (4.7)
2πnpq
(Convergenţa este ı̂n raport cu n şi este uniformă relativ la k.)
Probleme la limită 167

Demonstraţie. Din
k − np
xn,k = √
npq
√ √
rezultă k = np + npq xn,k , adică n − k = nq − npqxn,k . Deoarece |xn,k | 6 M avem
 √

 k npq
 =1+ xn,k → 1 şi deci k ∼ np,
np np√ (4.8)

 n−k npq
 =1− xn,k → 1 şi deci n − k ∼ nq.
nq nq
Folosind formula lui Stirling putem scrie
√ √ r
k k n−k ( ne )n n 2π k n−k n 1
Cn p q ∼ k √ √ √ √ p q ∼ √ ϕ(n, k),
k
( e ) k 2π( e ) n−k n−k
n − k 2π k(n − k) 2π

unde
nn np nq n−k
ϕ(n, k) =n n−k
pk q n−k = ( )k ( ) .
k (n − k) k n−k
Deoarece k ∼ np şi n − k ∼ nq rezultă că
1
Cnk pk q n−k ∼ √ ϕ(n, k).
2πnpq
Demonstrăm ı̂n continuare că
x2n,k
ϕ(n, k) ∼ e− 2 .

Folosim dezvoltarea ı̂n serie Taylor a lui ln(1 + x)


x2 xn
ln(1 + x) = x − + . . . + (−1)n−1 + . . . pentru |x| < 1
2 n
şi obţinem
√ √
np k np k − npqxn,k npqxn,k
ln( ) = k ln( ) ∼ k ln( ) = k ln(1 − )=
k k k k

npq npq
= k(− xn,k − 2 x2n,k − . . .),
k 2k

nq n−k nq n − k + npqxn,k
ln( ) = (n − k) ln( ) ∼ (n − k) ln( )=
n−k n−k n−k
√ √
npqxn,k npq npq
= (n − k) ln(1 + ) = (n − k)( xn,k − x2 + . . .),
n−k n−k 2(n − k)2 n,k
deoarece √ √
npq npq
| xn,k | < 1 şi | xn,k | < 1 (4.9)
k n−k
sunt safisfăcute pentru n suficient de mare pentru care |xn,k | < M . Deci

np k nq n−k npq npq
ln ϕ(n, k) = ln( ) + ln( ) ∼ k(− xn,k − 2 x2n,k − . . .)+
k n−q k 2k
168 Probleme la limită

npq npq
+(n − k)( xn,k − x2 + . . .) =
n−k 2(n − k)2 n,k
√ npq 2 √ npq
= (− npqxn,k − xn,k − . . .) + ( npqxn,k − x2 + . . .) =
2k 2(n − k) n,k
npq 2 1 1 n2 pq
= xn,k (− − ) + ... = − x2 + . . .
2 k n−k 2k(n − k) n,k
Justificăm de ce neglijăm termenii din dezvoltare de grad mai mare decât doi pentru
n → ∞. Când n este suficient de mare, cele două cantităţi din (4.9) sunt mai mici decât
2/3 şi prin urmare Lema A2.1 din Anexa 2 este aplicabilă şi contribuţia acestora la cele
două serii este mărginită de
√ √
npq 3 npq
k| xn,k | = (n − k)| xn,k |3 .
k (n − k)

Deoarece pq < 1 şi |xk | 6 M aceasta nu depăşeşte


2 3
n3 3 n2
2
M + M 3,
k (n − k)2

care ı̂n mod evident tinde la zero când n → ∞ datorită relaţiilor (4.8). Astfel, folosind
aceste relaţii, rezultă
n2 pq x2n,k
ln ϕ(n, k) ∼ xn,k = − .
2npnq 2
Aceasta este echivalentă cu
x2n,k

ϕ(n, k) ∼ e 2
şi de aici rezultă (4.7).

Observaţia 4.3.1 Aproximarea este utilizată dacă n este suficient de mare astfel ı̂ncât
np > 5 şi n(1 − p) > 5.

4.4 Convergenţa ı̂n repartiţie. Teorema limită cen-


trală
Unele probleme ı̂n teoria probabilităţilor impun studierea unor sume cu un număr
foarte mare de variabile aleatoare. Teorema limită centrală stabileşte condiţiile ı̂n care
repartiţia limită a sumelor considerate este normală.

Teorema 4.4.1 (Moivre-Laplace) Fie A un eveniment care are probabilitatea de realizare


p = P (A) ı̂ntr-un şir de probe independente. Dacă Sn este numărul de realizări ale lui A
ı̂n n probe, atunci oricare ar fi a şi b, a < b,
Z b
Sn − np 1 x2
lim P ({a 6 √ 6 b}) = √ e− 2 dx. (4.10)
n→∞ npq 2π a
Probleme la limită 169

Demonstraţie. Fie k o valoare posibilă a lui Sn astfel ı̂ncât Sn = k ı̂nseamnă


Sn − np
√ = xn,k
npq

conform relaţiei (4.6). Atunci probabilitatea evenimentului din dreapta formulei (4.10)
este X X
P ({Sn = k}) = Cnk pk q n−k .
a<xn,k <b a<xn,k <b

Ţinând seama de faptul că


k + 1 − np k − np 1
xn,k+1 − xn,k = √ − √ =√ ,
npq npq npq

obţinem
X 1 X − x2
P ({Sn = k}) ∼ e 2 (xn,k+1 − xn,k ). (4.11)
a<xn,k <b
K a<x <b n,k

Corespondenţa dintre krşi xn,k r este bijectivă şi atunci când k variază de la 0 la n, xn,k
np nq 1
variază ı̂n intervalul [− , ], nu continuu, cu pasul xn,k+1 − xn,k = √ . Pentru
q p npq
n suficient de mare intervalul va conţine [a, b) iar punctele xn,k vor fi ı̂n interiorul lui [a, b),
1
ı̂mpărţindu-l ı̂n intervale echidistante de lungime √ . Presupunem că cea mai mică şi
npq
cea mai mare valoare a lui k ce satisfac condiţiile a 6 xn,k < b sunt, respectiv, j şi l şi
deci vom avea
xj−1 < a < xj < xj+1 < . . . < xl−1 < xl < b < xl+1 ,
şi suma din (4.11) se poate scrie
l
X
ϕ(xn,k )(xn,k+1 − xn,k ),
k=j

unde
1 − x2
ϕ(x) = e 2
K
Rb
Aceasta este suma Riemann pentru integrala definită a ϕ(x)dx. Făcând n → ∞, di-
vizarea devine din ce ı̂n ce mai fină şi suma converge la integrala dată. Rămâne de
determinat constanta K. În formula
Z b
Sn − np 1 x2
lim P ({a 6 √ 6 b}) = √ e− 2 dx (4.12)
n→∞ npq 2π a

facem a = −b şi atunci


Z b
Sn − np 1 x2

lim P (−b < √ 6 b) = e− 2 dx. (4.13)


n→∞ npq K −b
170 Probleme la limită

Dacă notăm
Sn − np
X= √ ,
npq
atunci
M [X] = 0, D2 [X] = 1
şi obţinem
Sn − np 1
P (| √ | 6 b) > 1 − 2 . (4.14)
npq b
Combinând relaţiile (4.13) şi (4.14) obţinem relaţia
Z b
1 1 x2
1− 2 6 e− 2 6 1
b K −b

şi făcând b → ∞ obţinem Z ∞ x2 √


K= e− 2 dx = 2π,
−∞

deci constanta K din formula lui Stirling este 2π.
Înainte de a da o nouă formulare teoremei Moivre-Laplace, introducem noţiunea de
convergenţă ı̂n repartiţie.

Definiţia 4.4.1 Fie {Xn }n∈IN un şir de variabile aleatoare şi {Fn }n∈IN şirul funcţiilor
de repartiţie corespunzătoare. Dacă şirul funcţiilor de repartiţie {Fn }n∈IN converge către
o funcţie de repartiţie F ı̂n fiecare punct de continuitate x0 al funcţiei de repartiţie F
corspunzătoare variabilei aleatoare X, adică dacă

lim Fn (x0 ) = F (x0 )


n→∞

aatunci spunem că şirul {Xn }n∈IN converge ı̂n repartiţie către X şi se notează
rep
{Xn } −→ X.

Observatii.

1. Deoarece pot exista mai multe variabile aleatoare care au aceeaşi funcţie de repartiţie,
rezultă din definiţie că limita unui şir de variabile aleatoare convergent ı̂n repartiţie
nu este unică.

2. Un exemplu de astfel de convergenţă este următorul: dacă {Xn }n∈IN este un şir
de variabile aleatoare repartizată Bi(n, nλ ), atunci {Xn }n∈IN converge ı̂n repartiţie
către variabila aleatoare X repartizată Poisson de parametru λ. (Legătura ı̂ntre
repartiţia binomială şi repartiţia Poisson).

Următoarele rezultate stabilesc legătura ı̂ntre cele două moduri de convergenţă.


prob rep
Teorema 4.4.2 Dacă {Xn } −→ X, atunci {Xn } −→ X.
Probleme la limită 171

prob
Demonstraţie. Din definiţia convergenţei ı̂n probabilitate, {Xn } −→ X, rezultă că

∀ε > 0 : lim P ({|Xn − X| > ε}) = 0.


n→∞

Fie Fn funcţia de repartiţie a variabilei aleatoare Xn , F funcţia de repartiţie a lui X şi


x0 un punct de continuitate a lui F . Atunci

∀ε > 0 ∃δ > 0 : |F (x0 + δ) − F (x0 − δ)| 6 ε.

Din

F (x0 − δ) = P ({X < x0 − δ}) = P ({X < x0 − δ} ∩ ({Xn < x0 } ∪ {Xn > x0 })) =

= P ({X < x0 − δ} ∩ {Xn < x0 }) + P ({X < x0 − δ} ∩ {Xn > x0 }) 6


6 P ({Xn < x0 }) + P ({|Xn − X| > δ}) = Fn (x0 ) + P ({|Xn − X| > δ}) = 0,
prob
şi ţinând seama că {Xn } −→ X, adică

lim P ({|Xn − X| > δ}) = 0,


n→∞

rezultă
F (x0 − δ) 6 lim Fn (x0 ).
n→∞

Analog
F (x0 + δ) > lim Fn (x).
n→∞

Rezultă
lim Fn (x0 ) = F (x0 ).
n→∞

Observaţie. Reciproca acestei teoreme nu este adevărată. Ilustrăm aceasta printr-un


exemplu. Fie variabila aleatoare !
0 1
X: 1 1
2 2
şi variabila aleatoare Y = 1 − X. Variabilele aleatoare X şi Y au aceeaşi funcţie de
repartiţie. ı̂ntr-adevăr, !
0 1
Y : 1 1
2 2

 0 dacă x 6 0

1
FX (x) = FY (x) = dacă 0 < x 6 1

 2
1 dacă x > 1
şi |Y − X| = |1 − 2X| = 1 indiferent de valoarea variabilei aleatoare X. Definim şirul de
variabile aleatoare {Xn }n∈IN unde Xn = Y . Rezultă că {Xn }n∈IN converge ı̂n repartiţie
către X. Deoarece |Xn − X| = 1 rezultă că {Xn }n∈IN nu converge ı̂n probabilitate către
X. Există totuşi un caz particular ı̂n care se poate stabili şi legătura inversă.
172 Probleme la limită

rep prob
Teorema 4.4.3 Dacă C este o constantă reală şi dacă {Xn } −→ C, atunci {Xn } −→ C.

Demonstraţie. Punând X = C am definit o variabilă aleatoare a cărei repartiţie este


 
c
C: .
1

Deci funcţia de repartiţe a variabilei aleatoare X este



0, dacă x 6 c,
F (x) =
1, dacă x > c.

Fie ε > 0. Atunci

P ({| Xn − c | > ε}) = 1 − P ({c − ε < Xn < c + ε}) =

= 1 − P ({Xn < c + ε}) + P ({Xn < c − ε + 0}) 6 1 − Fn (c + ε) + Fn (c − ε + 0)


Punctul x = c este punct de discontinuitate pentru F şi

F (c + α) − F (c − α) = 1,

deci
P ({|Xn − c| > ε}) 6 F (c + α) − F (c − α) − Fn (c + ε) + Fn (c − ε + 0).
Dar c + ε şi c − ε + 0 sunt puncte de continuitate ale lui F şi, prin ipoteză, lim Fn (x)
n→∞
= F (x) pentru orice punct de continuitate x a lui F , deci

lim Fn (c + ε) = F (c + ε),
n→∞

lim Fn (c − ε + 0) = F (c − ε + 0) = F (c − ε),
n→∞

şi deci
lim P ({|Xn − C| > ε}) = 0
n→∞

ceea ce exprimă convergenţa ı̂n probabilitate a lui Xn către C.


Vom da acum o formulare mai generală a teoremei Moivre-Laplace. Notăm cu

Sn = X1 + X2 + . . . + Xn , n > 1,

unde Xj , j = 1, n, sunt variabile aleatoare independente Bernoulli. Ştim că

M [Xj ] = p, D2 [Sn ] = npq, j = 1, n,

şi pentru orice n,


M [Sn ] = np, D2 [Sn ] = npq.
Notăm n
Xj − M [Xj ] Sn − M [Sn ] 1 X ∗
Xj∗ = , Sn∗ = =√ X . (4.15)
D[Xj ] D[Sn ] n j=1 j
Probleme la limită 173

Sn∗ este o variabilă aleatoare şi se numeşte variabilă aleatoare normalizată. Avem pentru
fiecare j şi n
M [Xj∗ ] = 0, D2 [Xj∗ ] = 1.
M [Sn∗ ] = 0, D2 [Sn∗ ] = 1.
Transformarea liniară care duce Xj ı̂n Xj∗ sau Sn ı̂n Sn∗ are ca scop aducerea lor la o
variabilă aleatoare cu media 0 şi dispersia 1. Fiecare Sn∗ este o variabilă aleatoare care ia
ca valori
k − np
xn,k = √ .
npq
Aceasta este tocmai xn,k din Teorema Moivre-Laplace şi
P ({Sn∗ = xn,k }) = Cnk pk q n−k , 0 6 k 6 n.
Dacă utilizăm funcţia de repartiţie corespunzătoare
P ({Sn∗ < x}) = Fn (x),
iar dacă F este funcţia de repartiţie normală standard, atunci teorema Moivre-Laplace se
poate scrie sub o formă mai elegantă şi anume
lim Fn (x) = F (x).
n→∞

Observaţie. Teorema poate fi extinsă ı̂n următorul sens: fie {Xn }n∈IN un şir de
variabile aleatoare independente având aceeaşi repartiţie care nu trebuie să fie specificată.
Trebuie, ı̂n schimb, ca M [Xj ] = m < ∞ şi D2 [Xj ] = σ 2 < ∞. Teorema lui Laplace are
loc şi ı̂n aceste condiţii.
Teorema 4.4.4 Pentru sumele Sn ı̂n condiţiile generalizate de mai sus şi pentru a < b
are loc Z b
Sn − nm 1 x2
lim P ({a < √ 6 b}) = √ e− 2 dx. (4.16)
n→∞ σ n 2π a
Există ı̂nsă o situaţie ı̂n care teorema limită centrală are o demonstraţie banală. Este
cazul ı̂n care variabilele aleatoare {Xn }n∈IN sunt normale şi independente. Atunci Sn =
X1 + X2 + . . . + Xn este tot o variabilă aleatoare normală cu media nm şi dispersia nσ 2
conform Teoremei 3.6.2.
Exemplul 4.4.1 Determinarea volumului unei selecţii bernoulliene care să permită apli-
carea legii numerelor mari.
Legea numerelor mari (Teorema 4.2.2) afirmă că
lim P ({|fn (A) − p| > ε}) = 0,
n→∞

unde fn (A) este frecvenţa relativă de realizare a evenimentului A ı̂n primele n probe
independente.
k Sn
fn (A) = = unde Sn = X1 + X2 + . . . + Xn , Xi : Bi(n, p), i = 1, n,
n n
174 Probleme la limită

Sn Sn pq
M[ ] = p, D2 [ ] = ,
n n n
Sn D2 [ Snn ] pq
P ({| − p|}) > 1 − 2
= 1 − 2,
n ε nε
Sn pq
P ({| − p| > ε}) < 2 < δ,
n nε
δ fiind dat, relaţia ne permite să determinăm o margine inferioară pentru volumul selecţiei
n, deoarece
pq pq pq 1
2
< δ implică n > 2 şi max 2 = ,
nε δε p δε 4δε2
adică
1
n> .
4δε2
Această margine inferioară este mai mult decât este necesar pentru a putea aplica Teorema
Moivre-Laplace.
Sn Sn − np
P ({| − p| > ε}) = P ({| | > ε}) =
n n
r r
Sn − np n Sn − np n
= P ({| √ |>ε }) = 1 − P ({| √ |6ε }) =
npq pq npq pq
r r r r
n n n n
= 1 − [F (ε ) − F (−ε )] = 1 − 0, 5 − Φ(ε ) + 0, 5 − Φ(ε )
pq pq pq pq
r
n
= 1 − 2Φ(ε )<δ
pq
r
n
Notăm z = ε ; problema este să se determine z astfel ı̂ncât 1 − 2Φ(z) < δ adica
pq
r
1−δ 1−δ n
Φ(z) = . Determinăm z0 din relaţia Φ(z0 ) = şi n astfel ı̂ncât ε = z.
2 2 pq
z 2 pq z 2 pq z2
Rezultă n = 2 şi deci max 2 = 2 , adică
ε ε 4ε
z2
n> .
4ε2

Într-adevăr, dacă luăm ε = 0, 02 şi δ = 0, 05 obţinem, conform Legii numerelor mari

1
n> = 125000.
4 × 0, 05 × (0, 02)2

1 − 0, 05
Folosind Teorema lui Moivre-Laplace, Φ(z) = = 0, 475, adică z > 1, 96 şi deci
2
(1, 96)2
n> = 2401.
4(0, 02)2
Probleme la limită 175

Exemplul 4.4.2 O tensiune constantă, dar necunoscută, trebuie să fie măsurată. Fieca-
re măsurătoare Xj se face cu o eroare Nj faţă de valoarea exactă v. Eroarea Nj are media
egală cu zero şi dispersia egală cu 1 microvolt.

Xj = v + Nj

Presupunem că eroarea este o variabilă aleatoare independentă. Câte măsurători sunt
necesare ca media măsurătorilor să fie cu cel mult ε = 1 mai mare decât valoarea exactă
cu o probabilitate de 0,99?

Fiecare măsurătoare Xj are v şi dispersia 1, astfel ı̂ncât folosind legea numerelor mari
obţinem:
1 1
1 − 2 = 1 − = 0, 99.
nε n
Aceasta implică n = 100. Astfel dacă repetăm măsurătorarea de 100 de ori şi calculăm
media ı̂n mod normal ı̂n 99% din situaţii media obţinută va diferi cu cel mult 1 microvolt
de valoarea exactă.

Exemplul 4.4.3 Pentru a estima probabilitatea unui eveniment A, se efectuează un şir


de experienţe Bernoulli şi se observă frecvenţa relativă a evenimentului A. De câte ori
trebuie repetat evenimentul A astfel ı̂ncât cu o probabilitate de 0, 95 frecvenţa relativă să
difere de p = P (A) cu 0, 01?

Fiind experienţe Bernoulli, media m = p şi dispersia D2 [X] = p(1 − p). Evident că
p(1 − p) 6 1/4 pentru 0 6 p 6 1. Atunci rezultă

D2 [X] 1
P (|fn (A) − p| > ε) 6 6 .
nε2 4nε2
Pentru ε = 0, 01 obţinem
1
1 − 0, 95 =
4nε2
Rezolvăm şi obţinem n = 50000. Această evaluare s-a obţinut utilizând inegalitatea lui
Cebâşev care dă nişte evaluări destul de grosiere. Vom obţine o altă evaluare utilizând
Sn
Teorema Moivre-Laplace. Deoarece fn (A) = obţinem:
n
r
Sn Sn − np n
P ({| − p| < ε}) = P ({| | < ε}) = 1 − 2Φ(ε )
n n p(1 − p)
Această probabilitate nu poate fi calculată deoarece
p p este necunoscut. Mai mult, deoarece
p(1 − p) 6 1/4pentru 0 6 p 6 1, avem p(1 − p) 6 1/2, deci Φ(x) descreşte când
argumentul creşte. √
P (|fn (A) − p| > ε) < 1 − 2Φ(2ε n)

Vrem ca probabilitatea de mai sus să fie egală√cu 0,95. Aceasta implică Φ(2ε n) =
(1 − 0, 95)/2 = 0, 25. Din tabele obţinem 2ε n = 1, 95. Rezolvând, obţinem n =
(0, 98)2 /ε2 = 9506.
176 Probleme la limită

Exemplul 4.4.4 Să se determine numărul minim de aruncări ale unei monede care să
asigure cel puţin cu o probabilitate de 0,9 ca diferenţa dintre frecvenţa relativă obţinută
şi probabilitatea de apariţie a unei feţe să fie mai mică ı̂n valoare absolută decât 0,2.

Folosind Teorema 4.2.2 obţinem,


1
P ({|fn (A) − | < 0, 2}) > 0, 9. (4.17)
2
Conform Exemplului 4.4.4 avem ε = 0, 2, δ = 1 − 0, 9 = 0, 1 şi deci
1 1
n> 2
= = 62, 5, n > 63.
4δε 4 × 0, 1 × (0, 2)2
Cel puţin 63 de aruncări asigură
S63 1
P ({| − | < 0, 2}) > 0, 9.
63 2
Putem determina intervalul ı̂n care variază frecvenţa relativă astfel ı̂ncât (4.17) să fie
satisfăcută şi deci frecvenţa absolută pentru un anumit n 6 63,
k 1 k
| − | < 0, 2 ⇐⇒ 0, 3 < < 0, 7 ⇐⇒ n × 0, 3 < k < n × 0, 7.
n 2 n
Dacă n = 63 rezultă 18 < k < 44. Deci din 63 aruncări, numărul aruncărilor reuşite este
cuprins ı̂ntre 18 şi 44, atunci (4.17) este satisfăcută, adică am determinat intervalul ı̂n
care se situează numărul cazurilor favorabile apariţiei unei aceleiaşi feţe, aceasta având
loc cu probabilitatea de cel puţin 0,9.

Exemplul 4.4.5 Un zar se aruncă de 1200 de ori. Să se determine probabilitatea minimă
ca numărul de apariţii ale feţei cu i puncte, i fixat, să fie cuprins ı̂ntre 150 şi 250. Dar
ı̂ntre 100 şi 250 ?
1
Constatăm că p = şi n = 1200. Deci
6
k 1 1 k 1
| − | < ε ⇐⇒ −ε< < +ε
1200 6 6 1200 6
echivalent cu
200 − 1200 × ε < k < 200 + 1200 × ε.
Să cercetăm dacă această situaţie este compatibilă cu datele problemei, adică dacă sis-
temul 
200 − 1200ε = 150,
200 + 1200ε = 250,
50 1
are soluţie. Se obţine ε = = . ı̂n al doilea caz, sistemul devine
1200 24

200 − 1200ε = 100,
200 + 1200ε = 250,
Probleme la limită 177

1 1 1
şi este incompatibil, obţinând, din fiecare ecuaţie, ε1 = şi ε2 = . Pentru ε1 =
12 24 12
1
obţinem intervalul (100, 300), iar pentru ε2 = obţinem intervalul (150, 250). Cum
24
Sn Sn 1
P ({100 < < 250}) > P ({150 < < 250}) > 1 − ,
1200 1200 24
1
alegem ε = şi deci
24
1 1
δ= 2
= 1 = 0.12.
4ε n 4 242 1200
Deci, cu probabilitatea de cel puţin 0,88, numărul de apariţii ale unei feţe a zarului cu
i puncte este ı̂n intervalul (150, 250) dacă aruncăm zarul de 1200 ori. Pe de altă parte,
ţinând seama de regula celor 3σ de la repartiţia normală,
Sn − np
P ({−3 < √ 6 3}) = 0, 9973,
npq

ceea ce ı̂nseamnă că probabilitatea ca numărul de apariţii ale unei feţe a zarului să fie ı̂n
intervalul (161, 239) este de 0.9973. Se poate calcula exact probabilitatea ca numărul de

apariţii ale unei feţe să fie cuprins ı̂ntre 100 şi 250. Deorece np = 200 şi npq = 12, 91
obţinem
P ({100 < Sn < 250}) = P ({−100 < Sn − np < 50}) =
100 Sn − np 50
= P ({− < √ < }) =
12, 91 npq 12, 91
Sn − np
= P ({−7, 75 < √ < 3, 873}) = F (3, 873) − F (−7, 75)
npq
şi ţinând seama de Relaţia (3.14) din Capitolul 3,

P ({100 < Sn < 250}) = Φ(3, 873) + Φ(7, 75) =

= 0, 499946 + 0, 499997 = 0, 9999943,


rezultat ı̂n concordanţă cu cel anterior.

Exemplul 4.4.6 Să se calculeze probabilitatea opririi simultane a trei maşini din zece
care lucrează independent ı̂ntr-o fabrică ı̂n cazul ı̂n care probabilitatea defectării unei
maşini este p = 0, 2.

Numărul de maşini defecte este o variabilă aleatoare cu repartiţie binomială:


 
k
X: , k = 1, 10
Cnk (0, 2)k (0, 8)10−k

Se cere probabilitatea
3
P10,3 = C10 (0, 2)3 (0, 8)7 = 0, 2.
178 Probleme la limită

Folosind Teorema 4.3.1 putem aproxima

3 − 10
x10,3 = q 3 = −0, 21
10 12 12

şi obţinem
1 (0,21)2
3
C10 (0, 2)3 (0, 8)7 ∼ q e− 2 ≈ 0, 246.
2π 12 12 10

Diferenţa 0,246-0,2=0,046 este considerată ca o aproximaţie cu eroare mare. (Am văzut


că aplicăm formula dacă np > 5 şi nq > 5, dar ı̂n cazul acesta np = 10 × 0, 2 = 2 < 5.)
Dacă am avea 25 de maşini şi calculam probabilitatea opririi simultane a opt maşini
(observăm că np = 25 × 0, 2 = 5 şi nq = 25 × 0.8 = 20 > 5), atunci
8
P25,8 = C25 (0, 2)8 (0, 8)17 = 0, 06234.

Conform Teoremei 4.3.1


8 − 25 × 0, 2
x25,8 = √ = 1, 5,
25 × 0, 2 × 0, 8

1 (1,5)2
8
C25 (0, 2)8 (0, 8)17 ∼ √ e− 2 = 0, 06475.
2π × 0, 2 × 0, 8
Diferenţa
0, 06475 − 0, 06234 = 0, 00241
de ordinul miimilor este considerată satisfăcătoare din punct de vedere practic.

Exemplul 4.4.7 O centrală electrică trebuie să deservească o reţea de 10000 de becuri
medii. Probabilitatea aprinderii unui bec ı̂ntr-o noapte de iarnă, care constituie perioada
de vârf a consumului de energie electrică, este de 0,7. Să se facă analiza economică
necesară proiectării centralei.

Pentru a determina capacitatea centralei pot fi adoptate criterii diferite:

• să construim centrala astfel ı̂ncât ı̂n orice moment cele 10000 de becuri să funcţio-
neze;

• să se determine capacitatea centralei astfel ı̂ncât cu o probabilitate suficient de mare,


consumul obişnuit să fie asigurat cu energia necesară bunei funcţionări.

Fie X o variabilă aleatoare care ia ca valori numărul de becuri care pot fi aprinse ı̂ntr-o
noapte. Această variabilă aleatoare are o repartiţie binomială cu

n = 10000, p = 0, 7, M [X] = np = 7000,

D2 [X] = npq = 2100, D[X] = 45, 83 ≈ 46,


Probleme la limită 179

2100 1 k2 − 1
P ({|X − M [X]| 6 k × 46}) > 1 − = 1 − = .
k 2 2100 k2 k2
Pentru k = 2 obţinem
3
P ({|X − 700| 6}) > = 0, 75.
4
Dacă centrala se construieşte pentru o capacitate de 7092 becuri atunci, cu o probabilitate
de cel puţin 0,75, funcţionarea ei este normală. Rezultatul nu este convenabil. La fel,
8
k = 3, P ({|X − 7000| 6 138}) > = 0, 89;
9
15
k = 4, P ({|X − 7000| 6 184}) > = 0, 94.
16
Dacă construim centrala pentru o capacitate de 7184 becuri medii atunci, cu probabilitatea
de cel puţin 0,94, funcţionarea va fi normală.
Să determinăm capacitatea centralei astfel ı̂ncât cu o probabilitate de
0,99 funcţionarea să fie normală. Folosim Teorema Moivre-Laplace cu a = −∞.
Sn − np
P ({ √ 6 b}) = 0, 999 = F (b) = 0, 5 + Φ(b)
npq

0, 5 + Φ(b) = 0, 999 ⇐⇒ Φ(b) = 0, 499 ⇐⇒ b = 3, 09


S − 10000 × 0, 7
√n 6 3, 09
10000 × 0, 7 × 0, 3
Sn = 7142 se numeşte coeficient de simultaneitate şi este indicat să se facă construcţia
centralei pentru el. Dacă centrala se construieşte pentru 10000 de becuri medii, cu o
probabilitate de 0.99, un număr de 10000-7142=2858 becuri rămân nefolosite.

Exemplul 4.4.8 O fabrică are ı̂n stoc 1660 tone dintr-o materie primă. ştiind că zilnic se
consumă ı̂n medie 13,33 t cu abaterea 1,2 t, cu ce probabilitate această cantitate ajunge
pentru 4 luni.

Notăm cu Xi variabila aleatoare care ia ca valori consumul zilei i, i = 1, 120. Avem

M [Xi ] = 13, 33, D[Xi ] = 1, 2.


120
X
În 120 de zile se consumă X = Xi . Ne aflăm ı̂n cazul general ı̂n care nu se cunoaşte
i−1
repartiţia variabilei aleatoare Xi . Să determinăm P ({X < 1660}).
√ √
M [X] = nm = 120 × 13, 33 = 1599, 6, D[X] = nσ 2 = nσ = 13, 1,
X − 1599, 6 1660 − 1599, 6
P ({X < 1660}) = P ({ < }) = 0, 5 + Φ(4, 6) = 0, 999.
13, 1 13, 1
Se poate deci presupune că aproape sigur cantitatea de materie primă este suficientă.
180 Probleme la limită

Exemplul 4.4.9 O sursă radioactivă este modelată după o lege Poisson şi emite 30
particule/oră. Care este probabilitatea ca ı̂n 10 minute să fie emise cel mult 10 particule
?
10
X
Notăm X = Xi , unde Xi sunt variabile aleatoare repartizate Poisson şi indepen-
i=1
dente. Din condiţiile
10
X
λ = M [X] = M [Xi ] = nM [Xi ]
i=1
λ
şi deci M [Xi ] = şi
n
10
X
λ = D2 [X] = D2 [Xi ] = nD2 [Xi ],
i=1
λ
adică D2 [Xi ] = , unde λ este parametrul repartiţiei Poisson ce trebuie determinat din
n
1
condiţia λ = 30 6 = 5 particule/10 minute. După (4.16)
X − nλ 10 − λ 10 − 5
P ({X 6 10}) = P ({ √ q n 6 √ }) = 0, 5 + Φ( √ ) = 0, 98713.
n nλ λ 5

Exemplul 4.4.10 Fie {Xn }n∈IN un şir de variabile aleatoare independente


√ √ !
− n 0 n
Xn : 1 2 1 , P ({X1 = 0}) = 1, n = 2, 3 . . . .
1−
n n n
Să se arate că {Xn }n∈IN se supune Legii numerelor mari.
Verificăm condiţiile Teoremei 4.2.1.
M [Xn ] = 0, D2 [Xn ] = M [Xn2 ] − (M [Xn ])2 ,
!
0 1
Xn2 : 2 2 , M [Xn2 ] = 2, D2 [Xn ] = 2
1−
n n
prob
Conform Teoremei 4.2.1, {Xn } −→ 0. Dacă notăm
n
1X
Yn = Xk ,
n k=1
atunci
n
2 1 X 2 2(n − 1) 1 2n − 1
M [Yn ] = 0, D [Yn ] = 2 D [Xk ] = 2
+ 2 = →0
n k=1 n n n2
deci
prob
lim P ({|Yn − M [Yn ]| < ε}) = 1 ⇐⇒ {Yn } −→ 0.
n→∞
Probleme la limită 181

4.5 Legătura dintre convergenţa şirurilor funcţiilor


de repartiţie şi convergenţa şirurilor funcţiilor ca-
racteristice
Teorema 4.5.1 Fie Fn un şir de funcţii de repartiţie şi F o funcţie de repartiţie. Dacă
Fn → F ı̂n orice punct de continuitate a lui F , rezultă că pentru orice f : IR → IR
continuă şi mărginită are loc
Z Z
lim f (x)dFn (x) = f (x)dF (x)
n→∞ IR IR

Demonstraţie. Fie M = sup |f (x)| şi fie a, b puncte de continuitate ale lui F ı̂ncât
x∈IR

F (a) 6 ε şi 1 − F (b) 6 ε.

Deoarece pe un interval ı̂nchis [a, b] orice funcţie continuă este şi uniform continuă, alegem
punctele de continuitate ale lui F , xk cu 0 6 k 6 s astfel ı̂ncât

a = x0 < x 1 < . . . < x s = b

şi
|f (x) − f (xk )| 6 ε, ∀x ∈ [xk , xk+1 ], 0 6 k 6 s − 1.
Introducem funcţia auxiliară de salturi fε definită astfel:

f (xk ), dacă xk 6 x < xk+1 ,
fε (x) = 0 6 k 6 s − 1.
0, dacă x < x0 , x > xs ,

Are loc, evident,


|f (x) − fε (x)| < ε, ∀x ∈ [a, b].
Pentru orice funcţie de repartiţie G are loc
Z s−1
X
fε (x)dg(x) = f (xk )(G(xk+1 ) − G(xk )).
IR k=0

Deoarece ı̂n x = xk , 0 6 k 6 s, F este continuă, lim Fn (x) = F (x) şi deci


n→∞

Z s−1
X
lim fε (x)dFn (x) = lim f (xk )(Fn (xk+1 ) − F (xk )) =
n→∞ IR n→∞
k=0

s−1
X Z
= f (xk )(F (xk+1 ) − F (xk )) = fε (x)dF (x),
k=0 IR

deci Z Z
lim fε (x)dFn (x) = fε dF (x). (4.18)
n→∞ IR IR
182 Probleme la limită

De asemenea avem
Z Z a
|f (x) − fε (x)|dF (x) = |f (x) − fε (x)|dF (x)+
IR ∞
Z b Z ∞
+ |f (x) − fε (x)|dF (x) + |f (x) − fε (x)|dF (x) 6
a b
Z a Z b Z ∞
6 |f (x)|dF (x) + |f (x) − fε (x)|dF (x) + |f (x)|dF (x) 6
−∞ a b
Z a Z b Z ∞
6M dF (x) + |f (x) − fε (x)|dF (x) + M dF (x) =
−∞ a b

= M F (a) + ε(F (b) − F (a)) + M (1 − F (b)).


Dacă ţinem seama de (4.18), găsim
Z
|f (x) − fε (x)|dF (x) 6 (2M + 1)ε. (4.19)
IR

Din convergenţa ı̂n repartiţie, pentru n suficient de mare, avem


ε ε
|Fn (a) − F (a)| < şi |Fn (b) − F (b)| < .
2M 2M
Făcând acelaşi raţionament ca mai sus găsim evaluarea
Z
|f (x) − fε (x)|dFn (x) 6 (2M + 1)ε. (4.20)
IR

Din (4.18), (4.19) şi (4.20) avem


Z Z Z Z
| f (x)dFn (x) − f (x)dF (x)| 6 |f (x) − fε (x)|dFn (x) + |f (x)−
IR IR IR IR
Z Z
−fε (x)|dF (x) + | fε (x)dFn (x) − f (x)dF (x)| 6 (4M + 3)ε.
IR IR
Deoarece ε este arbitrar, rezultă teorema.
Menţionăm că şi implicaţia inversă este adevărată.
Teorema 4.5.2 Dacă Fn este un şir de funcţii de repartiţie, atunci există un subşir Fnk
convergent la o funcţie nedescrescătoare ı̂n punctele sale de continuitate.
Demonstraţie. Fie (xn )n∈IN ∗ o mulţime numărabilă arbitrară de numere reale, densă ı̂n
IR, de exemplu mulţimea numerelor raţionale. Deoarece şirul {Fn (x1 }n∈IN ∗ ∈ [0, 1] (fiind
mărginit), din teorema lui Bolzano- Weierstrass există un subşir convergent {Fn1 (x1 }n∈IN ∗ .
Analog, din şirul mărginit {Fn2 (x2 )} extragem un subşir convergent {Fn2 (x2 )}n∈IN ∗ etc.
Rezultă că şirul diagonal {Fnn }n∈IN ) (cu excepţia eventual a unui număr finit de ter-
meni) este conţinut ı̂n toate subşirurile {Fnk }n∈IN ∗ ,k∈IN ∗ şi deci converge , oricare ar fi
x ∈ Q. Introducem
def
F (x) = lim Fnk (x).
k→∞
Probleme la limită 183

F este, evident, nedescrescătoare şi mărginită pe Q şi poate fi extinsă la IR cu păstrarea


proprietăţilor
F (x) = sup F (y).
y<x,y∈Q

Să demonstrăm că {Fnk } → F ı̂n punctele sale de continuitate. Fie x0 un punct de
continuitate a lui F şi să alegem η > 0 ı̂ncât pentru |x − x0 | < η să avem
|F (x) − F (x0 )| < ε.
Introducem funcţiile auxiliare

 1, dacă x 6 x0 − η,
 x −x
0
f1 (x) = , dacă x0 − η 6 x 6 x0 ,

 η
0, dacă x > x0 ,

 1, dacă x 6 x0 ,
 x0 − x
f2 (x) = 1− , dacă x0 6 x 6 x0 + η,

 η
0, dacă x > x0 + η.
Avem, evident,
Z Z x0 −η
f1 (x)dF (x) > dF (x) = F (x0 − η) > F (x0 ) − ε,
IR −∞
Z Z x0 +η
f2 (x)dF (x) 6 dF (x) = F (x0 + η) 6 F (x0 ) + ε,
IR −∞
şi analog pentru Fnk
Z Z x
f1 (x)dFnk (x) 6 dFnk (x) = Fnk (x0 ),
IR −∞
Z Z x
f2 (x)dFnk (x) > dFnk (x) = Fnk (x0 ).
IR −∞
Pentru n suficient de mare, conform teoremei 4.4.1,
Z Z
| f1 (x)dFnk (x) − f1 (x)dF (x)| < ε,
IR IR
Z Z
| f2 (x)dFnk (x) − f2 (x)dF (x)| < ε.
IR IR
Din ultimele şase relaţii deducem
F (x0 ) − 2ε 6 Fnk (x0 ) 6 F (x0 ) + 2ε.
Deoarece ε > 0 este arbitrară rezultă
lim Fn (x0 ) = F (x0 ).
n→∞
184 Probleme la limită

Teorema 4.5.3 Dacă şirul {Fn } de funcţii de repartiţie converge ı̂n repartiţie către func-
ţia F ı̂n toate punctele de continuitate ale lui F , atunci şirul {ϕn } al funcţiilor caracteris-
tice corespunzătoare converge (uniform pe orice interval mărginit) la funcţia caracteristică
ϕ corespunzătoare lui F .

Demonstraţie. Deoarece
Z Z
ϕn (t) = eitx dFn (x) şi ϕ(t) = eitx dF (x)
IR IR

şi funcţia eitx este continuă şi mărginită pe IR. Conform Teoremei 4.5.2 rezultă
lim ϕn (t) = ϕ(t)
n→∞

(se poate demonstra şi convergenţa uniformă).

Teorema 4.5.4 Dacă şirul {ϕn }n∈IN ∗ de funcţii caracteristice converge pentru orice t ∈ IR
la ϕ continuă pe IR, atunci şirul {Fn }n∈N ∗ de funcţii de repartiţie corespunzătoare con-
verge către o funcţie de repartiţie F ; ı̂n plus, ϕ este funcţia caracteristică corespunzătoare
lui F .

Demonstraţie. Din Teorema 4.5.1 există un subşir {Fnk }k∈IN ∗ care converge la o funcţie
F nedescrescătoare, continuă la stânga ı̂n toate punctele de continuitate ale lui F . Să
demonstrăm că F este o funcţie de repartiţie. Presupunem, prin absurd, că
F (−∞) > 0 F (+∞) < 1
şi
δ = F (+∞) − F (−∞) < 1.
Fie ε > 0 ales arbitrar astfel ı̂ncât ε < 1 − δ. Deoarece ϕn → ϕ şi ϕn (0) = 1, rezultă că
ϕ(0) = 1 şi deoarece ϕ este continuă pe IR putem lua τ > 0 suficient de mic ı̂ncât
Z τ
1 ε ε
| ϕ(t)dt| > 1 − > δ + . (4.21)
2τ −τ 2 2
4
De asemenea putem alege x0 > dacă K > 0 suficient de mare, ı̂ncât
τε
Z
ε
δk = Fnk (x0 ) − Fnk (−x0 ) = dFnk (x) < δ + , dacă k > K
|x|<x0 4
ceea ce este posibil deoarece Fnk este o funcţie de repartiţie. Deoarece ϕnk este o funcţie
caracteristică, Z τ Z Z τ
ϕnk (t)dt = [ eitx dt]dFnk (x).
−τ IR −τ
Z τ
Dar | eitx dt| 6 2τ deoarece |eitx | = 1, iar pe de altă parte, calculând efectiv această
−τ
integrală, Z τ
1 1 2
eitx = eitx |τ−τ = [eiτ x − e−iτ x ] = sin(τ x).
−τ ix ix x
Probleme la limită 185
Z τ
2
Deci, pentru |x| > x0 , ţinând seama de faptul că | sin(τ x) 6 1 avem eitx dt < .
−τ x0
Deci Z τ Z Z τ
| ϕnk x(t)dt| 6 | [ eitx dt]dFnk (x)|+
−τ 6
|x| x0 −τ
Z Z τ
2
+| [ eitx dt]dFnk (x)| < 2τ δk + .
x>x0 −τ x0
Împărţind prin 2τ
Z τ
1 1 ε 1 τε ε
| ϕnk (t)dt| < δk + <δ+ + <δ+ ,
2τ −τ τ x0 4 τ 4 2

ceea ce contrazice (4.21). Din teorema 4.5.3,


Z Z
lim itx
e dFnk (x) = eitx dF (x) = ϕ(t).
k→∞ IR IR

Rămâne să demonstrăm că {Fn } converge ı̂n repartiţie către F . Să presupunem contrariul;
atunci există un subşir {Fnk } care converge ı̂n repartiţie către F ∗ 6= F , dar F ∗ este
o funcţie de repartiţie cu aceeaşi funcţie caracteristică, deci din Teorema de unicitate
Cap.III, Teorema 3.5.4 rezultă F ∗ ≡ F .

4.6 Convergenţa aproape sigură


Deoarece variabilele aleatoare sunt funcţii definite pe spaţiul de selecţie (cu proprietăţi
suplimentare) putem vorbi de covergenţa punctuală a unui şir de variabile aleatoare
{Xn }n∈IN către variabila aleatoare X, ı̂nţelegând prin aceasta că şirul numeric de variabile
aleatoare {Xn (e)}n∈IN , e ∈ E converge către X(e).
Definiţia 4.6.1 Şirul de variabile aleatoare {Xn }n∈IN converge aproape sigur către vari-
a.s.
abila aleatoare X (notat {Xn }n∈IN −→ X) dacă mulţimea evenimentelor ı̂n care {Xn }n∈IN
converge punctual la X formează un eveniment de probabilitate 1,

P ({Xn → X}) = 1, (4.22)

echivalent cu
P ({Xn → X}) = 0.

Observaţia 4.6.1 Convergenţa aproape sigură se mai numeşte convergenţă tare.

Teorema 4.6.1 Dacă pentru orice r ∈ IN ∗ are loc



X 1
P ({|Xn − X| > }) < ∞ (4.23)
n=1
r
a.s.
atunci {Xn }n∈IN −→ X.
186 Probleme la limită


[
Demonstraţie. Fie Arn = {e ∈ E, |Xn − X| > 1
r
} şi Bnr = Arn+k . Din faptul că
k=1


X ∞
X 1
P (Bnr ) 6 P (Arn+k ) = P ({|Xl − X| > })
k=1 l=n+1
r

şi cum seria din (4.23) este convergentă, rezultă că restul seriei converge la zero şi deci

lim P (Bnr ) = 0. (4.24)


n→∞


X
S S S
Fie B r = B 1 B2 B3 . . . şi cum P (B) 6 P (B r ) rezultă, conform (4.24) că P (B) =
r=1
0, unde de fapt B este mulţimea evenimentelor pentru care Xn nu converge la X.
a.s. prob
Se poate demonstra că dacă {Xn }n∈IN −→ X atunci {Xn }n∈IN −→ X şi deci
rep
{Xn }n∈IN −→ X.
Un alt rezultat, datorat lui E. Borel, face parte din legea numerelor mari (forma tare)
şi reformulează, ı̂ntr-o manieră ı̂ntărită, afirmaţia conţinută ı̂n teorema lui Bernoulli.
Teorema 4.6.2 (Borel) Fie A un eveniment care are probabilitatea de realizare p = P (A)
Sn
ı̂ntr-un şir de probe independente şi fie frecvenţa relativă de realizare a evenimentului
n
A din n probe. Atunci are loc convergenţa aproape sigură a şirului frecvenţelor relative
Sn
către p.
n
Sn a.s.
−→ p.
n
Demonstraţie. Conform Teoremei 4.5.1 este suficient să arătăm că seria

X Sn 1
P ({| − p| > }) (4.25)
n=1
n r

este convergentă, oricare ar fi r ∈ IN ∗ . Pentru aceasta vom observa, ca şi la inegalitatea


lui Cebâşev, că putem stabili următoarea inegalitate pentru orice variabilă aleatoare X
pentru care există M [(X − M [X])4 ]
1
P ({|X − M [X]| > ε}) 6 M [(X − M [X])4 ].
ε4

4.7 Convergenţa ı̂n medie


Definiţia 4.7.1 Şirul de variabile aleatoare {Xn }n∈IN converge ı̂n medie de ordinul r
către variabila aleatoare X dacă există momente absolute M [|Xn |r ], n ∈ IN şi M [|X|r ] şi
dacă
lim M [|Xn − X|r ] = 0,
n→∞
r
şi scriem {Xn }n∈IN −→ X
Probleme la limită 187

Teorema 4.7.1 Dacă şirul de variabile aleatoare {Xn }n∈IN converge ı̂n medie de ordinul
r către variabila aeatoare X atunci converge ı̂n probabilitate către X.

Demonstraţe. Folosim inegalitatea analogă inegalităţii lui Cebâşev, dar pentru momentul
centrat de ordin r, Relaţia (3.41):

M [|Xn − X|r ]
P ({|Xn − X| > ε}) 6
εr
rezultă că deoarece are loc (4.22) atunci

lim P ({|Xn − X| > ε}) = 0.


n→∞

Observaţie. Dacă r = 2 convergenţa ı̂n medie de ordinul doi se numeşte convergenţă


ı̂n medie pătratică.
Concluzie.
a.s.
{Xn }n∈IN −→ X prob rep
r =⇒ {Xn }n∈IN −→ X =⇒ {Xn }n∈IN −→ X .
{Xn }n∈IN −→ X
188 Probleme la limită

4.8 Probleme propuse


Problema 4.1 Se dau variabilele aleatoare independente X1 , X2 , . . . , Xn , . . ., unde Xn ia
valorile −na, 0, na, a ∈ IR+ cu probabilităţile:
a) p1 = 1/2n2 , p2 = 1 − 1/n2 , p3 = 1/2n2 ,
b) p1 = 1/2n , p2 = 1 − 1/2n−1 , p3 = 1/2n .
Satisfac aceste şiruri {Xn }n∈IN legea numerelor mari?
Soluţie. a)
 
−na 0 na
Xn : , n = 1, 2, . . . ,
1/2n2 1 − 1/n2 1/2n2
M [Xn ] = 0, M [X 2 ] = a2 , D2 [X] = M [X 2 ] = a2 < ∞.
Şirul {Xn }n∈IN satisface legea numerelor mari, folosind Teorema lui Cebâşev.
b)  
−na 0 na
Xn : , n = 1, 2, . . . ,
1/2n 1 − 1/2n−1 1/2n
M [Xn ] = 0, M [X 2 ] = n2 a2 /2n−1 , D2 [X] = M [X 2 ] − (M [X])2 = n2 a2 /2n−1 < ∞.
Întrucât D2 [Xn ] nu este constantă nu se poate aplica Teorema lui Cebâşev. Se aplică
Teorema lui Hincin.
Problema 4.2 Fie şirul de variabile aleatoare independente {Xn }n∈nn . Xn ia valorile:
−n, −(n − 1), . . . , −1, 0, 1, . . . , n − 1, n cu probabilităţile:
1 2 1 1 1
P (|Xn | = k) = 3
, k = 1, n, P (Xn = 0) = 1 − (1 + 3 + 3 + . . . + 3 ).
3k 3 2 3 n
Se aplică şirului {Xn }n∈nn legea numerelor mari?
Soluţie. Tabloul de repartiţie al variabilei aleatoare Xn este:
 
−n . . . −1 0 1 2 ... n
Xn : 1
3n3
. . . 3 1 − 3 (1 + 23 + 33 + . . . + n3 ) 13 312̇3 . . .
1 2 1 1 1 1
3n3

M [Xn ] = 0, n = 1, n
Xn n
1 2X1 2
D2 [Xn ] = M [Xn2 ] = k2 3 = < (1 + ln n).
k=1
3k 3 k=1 k 3
Pentru majorare am utilizat egalitatea:
1 1 1
1+ + + . . . + = ln n + C + εn , lim εn = 0
2 3 n n→∞

iar C este constanta lui Euler cu C ≈ 0.577. Vom aplica Teorema lui Markov:
n
X
n
D2 [Xi ]
1 2X i=1 1 2n
D [ Xi ] = < (1 + ln n),
n2 i=1
n2 n2 3
Probleme la limită 189

n
1 2X 2
2
D [ Xi ] < (1 + lnn) → 0, n → ∞.
n i=1
3n

Deci şirului {Xn }n∈IN i se poate aplica legea numerelor mari.


Problema 4.3 Se dă şirul de variabile aletoare independente {Xn }n∈IN cu M [X] =
0, D2 [X] = na , a =const., a < 1. Se aplică şirului dat legea numerelor mari?
Indicaţie. Se aplică Teorema lui Markov.
Problema
√ 4.4
√ Se dă şirul de variabile aleatoare {Xn }n∈IN independente: Xn ia

valorile − n, 0, n cu probabilităţile 1/n, 1 − 2/n, 1/n respectiv. Se aplică acestui şir


legea numerelor mari?
Indicaţie. Da, ı̂ntrucât se poate aplica teorema lui Cebâşev. Trebuie verificată condiţia
2
D [Xn ] < c.
Problema 4.5 Probabilitatea ca o diodă să se defecteze ı̂nainte de 1000 ore de
funcţionare este de 0,45. Dacă 1000 de diode sunt testate, care este probabilitatea ca
să se defecteze un număr de diode cuprins ı̂ntre 4450 şi 4515 ı̂nainte de a funcţiona 1000
de ore?
Indicaţie. p = 0, 45, q = 0, 55, n = 104 , np = 4500, σ 2 = npq = 2475, a =
−0, 4020, b = 0, 3015. Utilizând (4.12) şi legătura cu funcţia lui Laplace, obţinem

Sn − 4500
P ({−0, 4020 6 √ 6 0, 3015}) = Φ(0, 3015) + Φ(0, 4020) = 0, 275.
2475

Problema 4.6 Probabiliatea ca un rezistor să nu fie la limita de toleranţă este 0,1.
S-au cumpaărat 1000 de rezistoare. Care este probabilitatea ca mai mult de 100 rezistoare
să nu fie la limita de toleranţă?
Sn − 100
Indicaţie. P ({1, 0541 6 √ 6 94, 9}) = 0, 0778
90
Problema 4.7 În cazul unui semnal luminos dirijat spre un detector fotoelectric,
numărul k de electroni emisi urmează o repartiţie Poisson cu media λ = 150. Un semnal
este detectat dacă emite mai mult de 140 de electroni. Care este probabilitatea ca semnalul
să fie pierdut?
140
X (150)k e−k
Indicaţie. Această probabilitate este p = . Fie X variabila aleatoare care
k=0
k!
ia ca valori numărul de electroni emisi. Calculăm
X − 150 140 − 150
P ({X 6 140}) = P ({ √ 6 √ }) = 0, 5 − Φ(0, 8165) = 0, 209.
150 150

Problema 4.8 Presupunem că numărul particulelor emise de o masă ı̂n t secunde este
o variabilă aleatoare Poisson cu media λt. Folosind inegalitatea lui Cebâşev să se obţină
o margine pentru probabilitatea ca |N (t)/t − λ| să nu depăşească ε.
Indicaţie. P (|N (t)/t − λ| > ε) 6 ελ2 t
190 Probleme la limită

Problema 4.9 Numărul mesajelor care sosesc la un canal de comunicaţie este o


variabilă aleatoare Poisson cu media de 10 mesaje/secundă. Folosind teorema limită
centrală să se estimeze probabilitatea ca mai mult de 650 de mesaje să ajungă ı̂ntr-un
minut.
Indicaţie. Se utilizează Exerciţiul 4.4.9.
Capitolul 5

Procese stochastice

In studiul unor probleme fizice sau tehnologice apar fenomene care se desfăşoară ı̂n
timp şi care se numesc procese. Să dăm câteva exemple.
1. În modelul atomului de hidrogen, datorat lui Bohr, electronul se poate plasa pe
una din orbitele admisibile; la un moment dat t, definim variabila aleatoare X(t), care ia
valoarea i, dacă electronul se găseşte pe orbita i.
2. Numărul de impulsuri care se produc ı̂n intervalul (0, t) la o centrală telefonică este
o variabilă aleatoare pe care o notăm X(t).
3. Dacă mişcarea unei particule depinde de circumstanţe ı̂ntâmplătoare, de exemplu
de ciocnirea cu alte particule, atunci ı̂n fiecare moment t, viteza V (t) sau poziţia X(t)
sunt variabile aleatoare.
4. Un semnal aleator este o undă electrică, sonoră etc. ce traversează un anumit mediu
la un moment dat şi pe care ı̂l notăm cu X(t). Un semnal poate fi condiţional determinist
dacă se cunoaşte expresia analitică a undei; de exemplu X(t) = sin(ωt + φ) , unde φ este
o variabilă aleatoare.
În fiecare din exemplele precedente se pune ı̂n evidenţă o familie de variabile aleatoare
{X(t)}, cu t ∈ T, T ⊂ IR, care defineşte un proces stochastic.

5.1 Lanţuri Markov


Fie {E, K, P } un câmp borelian de probabilitate.

Definiţia 5.1.1 Familia de variabile aleatoare X(t) : E → IR, unde t ∈ T ⊂ IR, se


numeşte proces stochastic. Dacă T = IN procesul se numeşte lanţ.

Ne ocupăm ı̂n detaliu de lanţuri cu un număr finit de valori. Fie S o mulţime finită,
ale cărei elemente le numim stări, numerotate ı̂ntr-un mod bine-definit şi care reprezintă
mulţimea tuturor valorilor pe care le pot lua variabilele aleatoare X(n). Vom nota X(n) =
Xn .
Presupunem cunoscute probabilităţile

pi = P ({X0 = i}), ∀i ∈ S,

191
192 Procese stochastice

pe care le vom numi probabilităţi iniţiale ale lanţului. Evident


X
pi = 1.
i∈S

Definiţia 5.1.2 Lanţul {Xn }, n ∈ IN se numeşte lanţ Markov dacă are loc

P ({Xn+1 = in+1 }|{Xn = in , . . . , X0 = i0 }) = P ({Xn+1 = in+1 }|{Xn = in }). (5.1)

Egalitatea (5.1) este cunoscută sub numele de proprietatea Markov şi se interpretează
intuitiv prin aceea că lanţul păstrează asupra trecutului amintirea cea mai recentă, deci
trecutul este ı̂n ı̂ntregime rezumat ı̂n starea din ultimul moment cunoscut.
Se poate demonstra echivalenţa dintre condiţia (5.1) şi relaţia :

∀ t0 < t1 < . . . tn < tn+1 ∈ IR,

P ({Xtn+1 = in+1 }|{Xtn = in , . . . , Xt0 = i0 }) = P ({Xtn+1 = in+1 }|{Xtn = in }). (5.2)


Relaţia (5.2) corespunde situaţiei ı̂n care schimbarea stărilor nu se face la momente echidis-
tante de timp.

Propoziţia 5.1.1 Dacă {Xn }, n ∈ IN este un lanţ Markov, are loc următoarea formulă
de calcul:
n
Y
P ({Xn = in , . . . , X0 = i0 }) = pi0 P ({Xt = it }|{Xt−1 = it−1 }). (5.3)
t=1

Demonstraţie. Vom folosi probabilitatea unei intersecţii.

P ({Xn = in , . . . , X0 = i0 }) = P ({X0 = i0 } ∩ {X1 = i1 } ∩ . . . ∩ {Xn = in }) =

= P ({X0 = i0 })P ({X1 = i1 }|{X0 = i0 })P ({X2 = i2 }|{X1 = i1 , X0 = i0 }) . . .


P ({Xn = in }|{Xn−1 = in−1 , . . . , X0 = i0 }) =
= P ({X0 = i0 })P ({X1 = i1 }|{X0 = i0 })P ({X2 = i2 }|{X1 = i1 }) . . .
. . . P ({Xn = in }|{Xn−1 = in−1 }).
Ultima relaţie s-a obţinut folosind proprietatea Markov; scrisă condensat este de fapt
relaţia (5.3).

Definiţia 5.1.3 Probabilităţile date de formula

p(t, it−1 , it ) = P ({Xt = it }|{Xt−1 = it−1 }), t = 1, . . . n,

se numesc probabilităţi de trecere.

Definiţia 5.1.4 Un lanţ Markov se numeşte omogen dacă p(t, it−1 , it ) nu depinde explicit
de t, deci are loc
p(t, it−1 , it ) = p(it−1 , it )
În caz contrar, procesul se numeşte neomogen.
Procese stochastice 193

Vom nota aceste probabilităţi cu pit−1 ,it . Pentru un lanţ Markov omogen, relaţia (5.3)
devine
Yn
P ({Xt = it , . . . X0 = i0 }) = pi0 pit−1 ,it . (5.4)
t=1

In cazul unui lanţ Markov omogen, vom introduce notaţia

pij = P ({Xt+1 = j}|{Xt = i}), i, j ∈ S. (5.5)

Matricea P = (pi,j ) se numeşte matrice de trecere.

Propoziţia 5.1.2 Matricea de trecere a unui lanţ Markov omogen satisface relaţiile :

 pX ij > 0, ∀i, j ∈ S
pij = 1, ∀i ∈ S .

j∈S

Demonstraţie.
[ Prima afirmaţie este evidentă. Pentru a doua să observăm că evenimentul
sigur E = {Xt+1 = j} şi că
j∈S

! !
[ X X
1=P {Xt+1 = j} |{Xt = i} = P ({Xt+1 = j}|{Xt = i}) = pij .
j∈S j∈S j∈S

O matrice ce satisface aceste două proprietăţi se numeşte stochastică. Se poate uşor


demonstra că produsul a două matrice stochastice este o matrice stochastică. Un lanţ
Markov este caracterizat de probabilităţile iniţiale şi de trecere. Am văzut că dacă se
cunosc probabilităţile iniţiale şi de trecere se pot determina pentru orice n, probabilităţile
care caracterizează un lanţ stochastic, adică

P ({Xt = it , Xt−1 = it−1 , . . . , X0 = i0 }), t = 0, 1, . . . , n.

Reciproc, se poate demonstra că dacă pi , i ∈ S, este un şir cu proprietăţile


X
pi > 0 , pi = 1
i∈S

şi (pij ), i, j ∈ S, este o matrice cu proprietăţile :


X
pij > 0 , pij = 1,
j∈S

atunci există un corp borelian şi un lanţ Markov omogen, cu mulţimea stărilor S, cu pi
probabilităţi iniţiale şi pij probabilităţi de trecere.
194 Procese stochastice

Exemplul 5.1.1 Două urne au următoarea componenţă :

Ua are 4 bile albe şi 6 bile negre


Un are 5 bile albe şi 5 bile negre
Alegem la ı̂ntâmplare o urnă şi din ea o bilă, pe care o punem ı̂napoi ı̂n urnă; dacă bila este
albă extragem următoarea bilă din Ua , iar dacă e neagră din Un şi continuăm procedeul.
Este un exemplu de lanţ Markov omogen, cu probabilităţile iniţiale p1 = p2 = 12 , deoarece
alegerea urnelor este egal probabilă; definim stările

S1 se extrage o bilă din urna Ua

S2 se extrage o bilă din urna Un


şi ilustrăm prin următoarea diagramă:
Matricea de trecere este  
0, 4 0, 6
P = .
0, 5 0, 5

Exemplul 5.1.2 Intr-o urnă sunt a bile albe şi b bile negre. Se efectuează un şir infinit
de extrageri astfel ı̂ncât după fiecare extragere se pun ı̂napoi două bile de aceeaşi culoare
cu cea extrasă. Fie Xk numărul de bile la momentul k. Definim probabilităţile de trecere

 i

 1 − , dacă j = i,

 a+b+k



P ({Xk+1 = j}|{Xk = i}) = i

 , dacă j = i + 1,

 a+b+k




0, dacă j 6= i, i + 1.
Numărul de bile din urnă la momentul k+1 depinde numai de numărul de bile din urnă
aflate la momentul k, nefiind necesar ı̂ntreg istoricul. Probabilităţile de trecere depind
efectiv de momentul ı̂n care s-a desfăşurat extracţia, deci e un lanţ Markov neomogen.

Dat un lanţ Markov omogen, ne propunem să determinăm probabilităţile


P ({Xn+m = j}|{Xm = i}), n ∈ IN ,
(n)
pe care le numim probabilităţi de trecere după n paşi. Definim prin recurenţă pij , după
formulele  (1)
 pij = pXij
(n+1) (n) (1)
pik pkj n ∈ IN ∗ . (5.6)
 pij =
k∈S

Sub formă matriceală, relaţiile (5.6) devin:


P (n) = P × . . . × P = P n .
Procese stochastice 195

Propoziţia 5.1.3 Pentru orice n ∈ IN are loc


(n)
pij = P ({Xn+m = j}|{Xm = i}), m ∈ IN . (5.7)

Demonstraţie. Vom demonstra prin inducţie. Observăm că pentru n = 1, găsim definiţia
probabilităţilor de trecere date de (5.5). Presupunem că (5.7) are loc pentru n ∈ IN şi să
determinăm
X
P ({Xn+1+m = j}|{Xm = i}) = P ({Xn+m+1 = j, Xn+m = k}|{Xm = i}),
k∈S

aceasta deoarece {Xn+m = k}, k ∈ S, formează un sistem complet de evenimente şi are
loc formula probabilităţii totale (vezi Exemplul 6.6, Capitolul 1). Aplicând ı̂n continuare
formula probabilităţii condiţionate şi proprietatea Markov, ultimul membru este
X
P ({Xn+1+m = j, Xn+m = k}|{Xm = i}) =
k∈S

X P ({Xn+m+1 = j} ∩ {Xn+m = k} ∩ {Xm = i})


= =
k∈S
P ({Xm = i})
X P ({Xn+m+1 = j} ∩ {Xn+m = k} ∩ {Xm = i})
= ·
k∈S
P ({Xn+m = k} ∩ {Xm = i})

P ({Xn+m = k} ∩ {Xm = i})


=
P ({Xm = i})
X
= P ({Xn+m+1 = j}|{Xn+m = k, Xm = i})P ({Xn+m = k}|{Xm = i})
k∈S
X
= P ({Xn+m+1 = j}|{Xn+m = k})P ({Xn+m = k}|{Xm = i}) =
k∈S
X
= p1kj P ({Xn+m = k}|{Xm = i}).
k∈S

Folosind ipoteza inductivă ultimul membru este


X (n) (1) (n+1)
pik pkj = pij .
k∈S

Deci afirmaţia este dovedită.


Dacă ı̂ntr-un lanţ Markov omogen se cunosc probabilităţile iniţiale şi matricea de
trecere, atunci probabilitatea ca la momentul n ∈ IN sistemul să se afle ı̂n starea i, i ∈ S,
probabilitate pe care o vom nota pi (n), este dată de formula
X
pi (n) = pj (n − 1)pji . (5.8)
j∈S
196 Procese stochastice

Într-adevăr, la momentul n
!!
[
pi (n) = P ({Xn = i}) = P {Xn = i} ∩ {Xn−1 = j} =
j∈S

!
[ X
=P ({Xn = i} ∩ {Xn−1 = j}) = P ({Xn−1 = j})P ({Xn = i}|{Xn−1 = j})
j∈S j∈S
X
= pj (n − 1)pji .
j∈S

Exemplul 5.1.3 Un calculator poate fi privit ca un sistem S care se poate afla ı̂ntr-una
din următoarele stări:
S1 calculatorul funcţionează normal;
S2 calculatorul prezintă unele dereglări, dar poate executa programe;
S3 calculatorul prezintă unele dereglări şi rezolvă un număr limitat de probleme;
S4 calculatorul nu funcţionează.
La momentul iniţial calculatorul funcţionează, deci se află ı̂n starea S1 cu probabili-
tatea 1 şi se poate presupune că el trece ı̂n celelalte stări cu probabilităţile indicate de
următoarea schemă
Deci matricea de trecere este
 
0, 3 0, 4 0, 1 0, 2
 0 0, 2 0, 5 0, 3 
P =
 0
.
0 0, 4 0, 6 
0 0 0 1
Să determinăm probabilităţile stărilor la momentul n = 2. Deoarece la momentul iniţial
calculatorul funcţionează, probabilităţile iniţiale sunt

p1 = 1, p2 = p3 = p4 = 0.

Folosind (5.8) găsim

p1 (1) = 0, 3; p2 (1) = 0, 4; p3 (1) = 0, 1; p4 (1) = 0, 2

şi
p1 (2) = 0, 09; p2 (2) = 0, 2; p3 (2) = 0, 27; p4 (2) = 0, 44.

Propoziţia 5.1.4 Pentru orice m, n ∈ IN are loc


(m+n)
X (n) (m)
pij = pik pkj . (5.9)
k∈S
Procese stochastice 197

Demonstraţie. Demonstrăm prin inducţie după m. Pentru m = 1 regăsim (5.7). Inlocuind


m cu m + 1, să evaluăm
!
(n+m+1)
X (n+m) (1)
X X (n) (m) (1)
pij = pik pkj = pil plk pkj =
k∈S k∈S l∈S
X (n)
X (m) (1)
X (n) (m+1)
= pil plk pkj = pil plj .
l∈S k∈S l∈S

Relaţia (5.9) se numeşte relaţia Chapman-Kolmogorov. Matriceal ea se scrie

P (m+n) = P (m) P (n) .

Cu ajutorul matricei de trecere putem exprima probabilitatea apariţiei unor stări la


momente nesuccesive.

Exemplul 5.1.4 Dacă avem un lanţ Markov omogen cu matricea de trecere P , să deter-
minăm
P ({X10 = l, X8 = k, X5 = j}|{X1 = i}).
Folosind formula probabilităţii unei intersecţii şi proprietatea Markov, avem

P ({X10 = l, X8 = k, X5 = j, X1 = i})
=
P ({X1 = i})
P ({X1 = i})P ({X5 = j}|{X1 = i})P ({X8 = k}|{X5 = j})P ({X10 = l}|{X8 = k})
= =
P ({X1 = i})
(4) (3) (2)
= pij pjk pkl .
198 Procese stochastice

Exemple de lanţuri Markov omogene.

Exemplul 5.1.5 Mers la ı̂ntâmplare pe segmentul [0, l] [11].


a. cu bariere absorbante; o particulă se deplasează pe o axă orientată ocupând doar
punctele de abscisă 0, 1, . . . l. La fiecare moment particula rămâne imobilă dacă se află
ı̂ntr-unul din punctele 0 sau l şi face un pas la dreapta cu probabilitatea p sau la stânga
cu probabilitatea q. Matricea de trecere este
 
1 0 0 ... 0 0 0
 q 0 p ... 0 0 0 
 
P =  ... ... ... ... ... ... ... .

 0 0 0 ... q 0 p 
0 0 0 ... 0 0 1

b. cu bariere reflectante; dacă particula ajunge ı̂n 0 sau l, este ”reflectată” ı̂n 1,
respectiv l − 1. Matricea de trecere este
 
0 1 0 ... 0 0 0
 q 0 p ... 0 0 0 
 

P =  ... ... ... ... ... ... ... .

 0 0 0 ... q 0 p 
0 0 0 ... 0 1 0

Exemplul 5.1.6 Un model din teoria aşteptării [11].


O ”staţie” de deservire poate servi clienţii la momentele 0, 1, 2, . . .. Numărul de clienţi
care sosesc ı̂n intervalul (n, n + 1) este o variabilă aleatoare notată Xn . Presupunem că
Xn sunt variabile aleatoare independente şi identic repartizate
 +∞ ∞
X
k
Xn : , pk = 1
pk k=0 k=0

şi că există un loc de aşteptare pentru cel mult m clienţi, număr ı̂n care se include şi
clientul care este servit. Clienţii care ajung ı̂n staţie şi găsesc m clienţi, pleacă fără a fi
serviţi.
Fie Yn numărul de clienţi prezenţi la momentul n, ı̂n care se include şi clientul care este
servit. Yn este un lanţ Markov cu stările 0, 1, . . . m. Yn+1 este egal cu numărul clienţilor
la momentul n, mai puţin cel servit la momentul n (dacă există) plus numărul clienţilor
care sosesc ı̂n intervalul (n, n + 1), dacă rezultatul nu depăşeşte m şi este egal cu m ı̂n caz
contrar. Deci

 Yn − 1 + Xn , dacă 1 6 Yn 6 m, 0 6 Xn 6 m + 1 − Yn ,
Yn+1 = Xn , dacă Yn = 0, 0 6 Xn 6 m − 1,

m, ı̂n rest.
Procese stochastice 199

Deoarece Yn+1 depinde doar de Yn , iar variabilele aleatoare Xn şi Yn sunt independente,
rezultă că Yn este un lanţ Markov. Să determinăm matricea de trecere. Notăm cu pm =
pm + pm−1 + . . .
p0j = P ({Yn+1 = j}|{Yn = 0)}

P ({Xn = j}) = pj , dacă 0 6 j 6 m − 1,
=
P ({Xn > m}) = pm , dacă j = m;

pij = P ({Yn+1 = j}|{Yn = i}) =



 P ({Xn = j + 1 − i}) = pj−i+1 , dacă i − 1 6 j 6 m − 1,
= P ({Xn > m + 1 − i}) = pm+1−i , dacă j = m,

0, ı̂n rest.
Rezultă matricea  
p0 p1 p2 . . . pm−1 pm
 p0 p1 p2 . . . pm−1 pm 
 
 0 p0 p1 . . . pm−2 pm−1 
 
 .. .. .. .. .. .. .
 . . . . . . 
 
 0 0 0 . . . p1 p2 
0 0 0 . . . p0 p1

Exemplul 5.1.7 Un model din teoria stocurilor. [11]


O marfă este stocată pentru a putea satisface cererile ı̂ntâmplătoare. Completarea
eventuală a stocului se face la momentele 0, 1, 2, . . ., iar cererea ı̂n intervalul (n, n + 1)
este o variabilă aleatoare Xn , cu repartiţia
 ∞ X∞
k
Xn : , pk = 1.
pk k=0
k=0

Presupunem că Xn sunt independente. Dacă la un moment oarecare n > 0 cantitatea


de marfă stocată nu este mai mare decât m unităţi, atunci se procură instantaneu o
cantitate de marfă care ridică stocul la M unităţi, M ∈ IN . Dacă ı̂nsă cantitatea de
marfă depăşeşte m unităţi, atunci nu se ı̂ntreprinde nimic. Fie Yn stocul imediat ı̂nainte
de reı̂mprospătarea eventuală de la momentul n. Observăm că

max{Yn − Xn , 0}, dacă m < Yn 6 M,
Yn+1 =
max{M − Xn , 0}, dacă Yn 6 m.
Se arată că Yn este un lanţ Markov cu matricea de trecere
 
pM pM −1 . . . pM −m pM −m−1 pM −m−2 . . . p0
 pM pM −1 . . . pM −m pM −m−1 pM −m−2 . . . p0 
 . .. .. .. .. .. .. .. 
 . 
 . . . . . . . . 
 
 pM pM −1 . . . pM −m pM −m−1 pM −m−2 . . . p0 
 .
 pm+1 pm . . . p1 p0 0 ... 0 
 
 pm+2 pm+1 . . . p2 p1 p0 ... 0 
 . .. .. .. .. .. .. .. 
 .. . . . . . . . 
pM pM −1 . . . pM −m pM −m−1 pM −m−2 . . . p0
200 Procese stochastice

(Matricea are primele m linii identice). S-a folosit notaţia pl = pl + pl+1 + . . . , dacă
m < l 6 M.

Dat un lanţ Markov omogen ne interesează comportarea la limită a probabilităţilor de


(n)
trecere peste n paşi pij .
(n)
Definiţia 5.1.5 Dacă pentru orice i, j ∈ S şirul pij n ∈ IN este convergent independent
de i, lanţul Xn se numeşte ergodic.

Teorema 5.1.1 (Teoremă de ergodicitate). Fie (Xn ), n ∈ IN , un lanţ Markov cu ma-


tricea de trecere P = (pij ), i, j ∈ S. Următoarele afirmaţii sunt echivalente:
(s)
1. există s ∈ IN ∗ şi o stare j0 ∈ S astfel ı̂ncât pij0 > 0 ∀i ∈ S;
(n)
2. există lim pij = p∞
j , j ∈ S, ∀i ∈ S.
n→∞

Demonstraţie.
2. =⇒ 1. Afirmaţia este imediată; observăm că
X X (n)
p∞
j = lim pij = 1.
n→∞
j∈S j∈S

Există deci j0 ∈ S astfel ı̂ncât p∞


j0 > 0, deci de la un rang s termenii şirului

(s)
pij0 > 0, ∀i ∈ S.

1. =⇒ 2. Pentru orice j ∈ S să considerăm şirurile


(n) (n) (n)
pj = max pij , pj(n) = min pij . (5.10)
i∈S i∈S

(n)
Arătăm că pj este necrescător; ı̂ntr-adevăr folosind (5.6)

(n+1)
X (1) (n) (n)
X (1) (n)
pij = pil plj 6 pj pil = pj , ∀i ∈ S,
l∈S l∈S

deci
(n+1) (n)
pj 6 pj .
Analog rezultă că pj(n) este nedescrescător, deci

p(n+1)
j
> p(n)
j
.
(n)
Deoarece cele două şiruri sunt şi mărginite (1 > pj > p(n)
j
> 0) ele sunt convergente; să
notăm
(n)
p∞ ∞ (n)
j = lim pj , pj = lim pj .
n→∞ n→∞
Procese stochastice 201

Rămâne să mai arătăm că p∞


j
= p∞
j . Pentru aceasta să demonstrăm că

(n) (n)
lim max |pij − plj | = 0.
n→∞ i,l∈S

Folosind relaţia (5.6), pentru n > s, cu s dat din ipoteza 1


(n)
X (s) (n−s)
pij = pir prj ,
r∈S

rezultă X (s) X
(n) (n) (s) (n−s) (n−s)
pij − plj = (pir − plr )prj = uil (r)prj ,
r∈S r∈S
(s) (s)
unde am introdus notaţia uil = − Să notăm cu S + mulţimea acelor stări din S
pir plr .

pentru care uil (r) > 0 şi cu S mulţimea acelor stări din S pentru care uil (r) < 0. Avem
evident S = S + ∪ S − . Deoarece
X (s) X (s)
pir = plr = 1,
r∈S r∈S

rezultă că X X X
uil (r) = uil (r) + uil (r) = 0,
r∈S r∈S + r∈S −

deci X X
uil = |uil (r)|.
r∈S + r∈S −

Să demonstrăm că are loc X


uil (r) < 1. (5.11)
r∈S +

Presupunem că starea j0 din ipoteza 1 aparţine lui S + ; atunci


X X (s) (s)
X (s) X (s)
uil (r) = (pir − plr ) = pir − plr 6
r∈S + r∈S + r∈S + r∈S +
X (s) (s)
61− plr 6 1 − plj0 < 1
r∈S +
(s)
X (s)
deoarece 0 < plj0 6 plr . Aceeaşi evaluare se obţine după un raţionament analog ı̂n
r∈S +
cazul ı̂n care j0 ∈ S − . Deoarece (5.11) are loc pentru orice i, l ∈ S, rezultă
X
u = sup uil (r) < 1.
i,l∈S
r∈S +

Revenim la suma ce trebuia majorată şi folosim (5.10)


(n) (n)
X (n−s)
X (n−s)
pij − plj = uil (r)prj − |uil (r)|prj 6
r∈S + r∈S −
202 Procese stochastice
X (n−s)
X (n−s)
6 uil (r)pj − uil (r)p(n−s)
j
6 u(pj − p(n−s)
j
).
r∈S + r∈S −
Cum inegalitatea are loc pentru orice i, l ∈ S, rezultă că
(n) (n−s)
pj − p(n)
j
6 u(pj − p(n−s)
j
).
Aplicând această inegalitate de [ ns ] ori, unde [ ], semnifică partea ı̂ntreagă a numărului ns ,
deducem că n
sup |pij − plj | = |pj − pj | 6 u[ s ]
(n) (n)

i,l∈S

iar n
lim u[ s ] = 0.
n→∞
De aici rezultă că
(n)
pj = pj = lim pij
n→∞
şi această limită o notăm p∞
j .
Importanţa acestei teoreme este ı̂nsemnată, deoarece pe baza ei putem analiza stabi-
litatea ı̂n timp a unor procese aleatoare.
Exemplul 5.1.8 Considerăm următorul proces Markov: mulţimea stărilor are 3 elemente
şi dacă la un moment dat este luată o anumită stare, la momentul următor se trece ı̂n
oricare din celelalte două cu aceeaşi probabilitate. Matricea de trecere este evident
 
0 21 12
 
 1 

P =  2 0 2 . 1 

 
1 1
2 2
0
Observăm că  
1 1 1
2 4 4
 
 
P =

2 1
4
1
2
1
4


 
1 1 1
4 4 2
satisface condiţia 1 din teorema precedentă, pe care o vom numi condiţie de ergodicitate.
Fiind matrice simetrică ea admite valorile proprii reale λ1 = 1, λ2,3 = − 12 şi forma
diagonală  
1 0 0
D =  0 − 21 0  .
0 0 − 21
Fie S matricea ortogonală de schimbare de bază, care are forma
 1 1 1

√ √ √
3 2 6
 
 
 √1 − √12 √1

S= 3 6 .
 
 
√1 0 √2
3 6
Procese stochastice 203

Ridicând la puterea n matricea P = SDS t , rezultă


 1 1 1

3 3 3
 
 
lim P = 
n

1
3
1
3
1
3
.

n→∞
 
1 1 1
3 3 3

Mai sus s-a folosit faptul că Dn are pe diagonală puterea a n -a a elementelor de pe
diagonala lui D. Deci după un număr foarte mare de paşi se poate presupune că fiecare
stare este luată cu aceleaşi şanse.

Exemplul 5.1.9 Fie un lanţ Markov cu două stări şi diagrama asociată ı̂n Figura 5.3.
Obsevăm că matricea de tranziţie este de forma
 
1−α α
.
β 1−β
Să studiem comportarea la limită a matricei de tranziţie. Putem scrie
   
1 β α 1−α−β α −α
P = + .
α+β β α α+β −β β

Se constată uşor că


   
n 1 β α (1 − α − β)n α −α
P = + .
α+β β α α+β −β β

Matricea de tranziţie după n paşi tinde pentru n → +∞ la


 
1 β α
.
α+β β α

Dacă cele două stări sunt luate iniţial cu probabilităţile p0 , 1 − p0 , se constată că pentru
β α
n → +∞ probabilităţile de stare sunt α+β , α+β . Deci după un număr foarte mare de paşi
probabilităţile nu depind de starea iniţială.

Dacă analizăm mersul la ı̂ntâmplare cu bariere absorbante, pentru l = 2, găsim


 
1 0 0
P = q 0 p 
0 0 1

iar P n = P, ∀n ∈ IN . Observăm că nu este ı̂n deplinită condiţia de ergodicitate; se


poate totuşi aprecia că la un număr foarte mare de paşi particula rămâne imobilă, fiind
absorbită de bariere.
204 Procese stochastice

5.2 Procese Markov continue. Procese Poisson

Procese Poisson.

În unele situaţii practice, făcând observaţii asupra unui eveniment aleator ne poate
interesa de câte ori s-a produs acesta ı̂ntr-un interval de timp ; de exemplu numărul de
impulsuri care apar la o centrală telefonică ı̂ntr-un interval de timp, numărul de ”clienţi”
care solicită un produs ı̂ntr-o ”staţie de deservire”, numărul de vehicule care traversează
un pod, etc. Pentru orice t ∈ IR, notăm cu X(t) numărul de produceri ale evenimentului
ı̂n intervalul (0, t); evident variabila aleatoare X(t) ia valori ı̂n IN . Facem următoarele
presupuneri:
1. observaţiile ı̂ncep la momentul iniţial t = 0, deci X(0) = 0;
2. pentru orice momente de timp 0 < t1 < t2 < t3 < t4 , variabilele aleatoare X(t2 ) −
X(t1 ) şi X(t4 ) − X(t3 ) sunt independente (proces cu creşteri independente);
3. repartiţia variabilei aleatoare X(t + s) − X(t), t > 0, s > 0, depinde doar de s,
lungimea intervalului şi nu de t;
4. probabilitatea ca un singur eveniment să se producă ı̂n intervalul (t, t + ∆t), pentru
∆t suficient de mic este aproximativ proporţională cu lungimea intervalului, deci de forma
λ∆t + o(∆t). Probabilitatea ca mai mult de un eveniment să se producă ı̂n intervalul
(t, t + ∆t) este o(∆t).(Prin o(∆t)s-a notat o cantitate ce depinde doar de ∆t ce satisface
o(∆t)
lim = 0.) Notăm pk (t) = P ({X(t) = k}). Fie ∆t suficient de mic; la momentul
∆t→0 ∆t
t + ∆t, X(t) ia valoarea k ı̂n următoarele două moduri:
a. X(t) = k şi nici un eveniment nu se produce ı̂n intervalul (t, t + ∆t);
b. X(t) = k − 1 şi un eveniment se produce ı̂n (t, t + ∆t).
Deoarece din ipoteza 2, variabilele aleatoare X(t + ∆t) − X(t) şi X(t) sunt indepen-
dente, probabilitatea evenimentului dat de a este pk (t)(1 − λ∆t), iar cea a evenimentului
dat de b este pk−1 (t)λ∆t şi cum evenimentele de la a şi b sunt independente

pk (t + ∆t) = pk (t)(1 − λ∆t) + pk−1 (t)λ∆t.

Relaţia se scrie sub forma echivalentă

pk (t + ∆t) − pk (t)
= −λpk (t) + λpk−1 (t) k = 1, 2, 3 . . .
∆t
Când ∆t → 0, găsim ecuaţia diferenţială

p0k (t) = −λpk (t) + λpk−1 (t). (5.12)


Pentru k = 0, p−1 (t) = 0 şi ecuaţia (5.12) devine

p00 (t) = −λp0 (t)


cu soluţia evidentă p0 (t) = Ae−λt . Din ipoteza 1 avem condiţia iniţială X(0) = 0, care
determină ı̂n mod unic soluţia
p0 (t) = e−λt .
Procese stochastice 205

Pentru k = 1, ecuaţia (5.12) devine


p01 (t) = −λp1 (t) + λe−λt ,
care este o ecuaţie liniară cu soluţia
p1 (t) = λte−λt .
Procedând recursiv ı̂n acest mod, găsim
(λt)k −λt
pk (t) = e , k = 0, 1, 2. . . .
k!
Constatăm că pentru fiecare t ∈ IR, X(t) este o variabilă aleatoare repartizată Poisson
cu parametru λt.
Matricea de tranziţie cu un pas.

(λt)j−i −λt
pij (t) = P ({j − i evenimente au loc ı̂n t secunde}) = e , j > i.
(j − i)!
Matricea P este  2 −λt 
e−λt λte−λt (λt)2!e ...
 
P (t) = 
 0
.
e−λt
λte−λt
... 
... ... ... ...

Intervalul aleator dintre două evenimente succesive ı̂ntr-un proces


Poisson.
Dacă ı̂n cadrul unui proces Poisson un eveniment se produce la momentul t, iar
următorul la momentul t + τ , τ este o variabilă aleatoare. Să-i determinăm densitatea de
probabilitate. Pentru aceasta determinăm mai ı̂ntâi funcţia de repartiţie. Avem
P ({τ > x}) = e−λx .
{τ > x} exprimă faptul că nici un eveniment nu are loc ı̂n intervalul (t, t+x). Deci funcţia
de repartiţie este 1 − λe−λx , x > 0, iar prin derivare găsim f (x) = λe−λx , x > 0, care
este repartiţia exponenţială. Această densitate caracterizează intervalul aleator de timp
dintre două produceri succesive de evenimente ale unui proces Poisson. Să observăm că
P ({τ > t0 + t})
P ({τ > t + t0 }|{τ > t0 }) = =
P ({τ > t0 })
Z ∞
λ e−λs ds
= Zt0∞
+t
= e−λt = P ({τ > t}),
λ e−λs ds
t0
ceea ce semnifică faptul că procesul Poisson este un proces Markov. Observăm că pro-
babilitatea ca ı̂n intervalul (0, t) să se producă exact un eveniment este λte−λt , deoarece
este urmată o lege Poisson cu parametrul λt.
206 Procese stochastice

Exemplul 5.2.1 Impulsurile care se recepţionează la o staţie se primesc cu rata de 15


pe minut. Să determinăm probabilitatea ca ı̂ntr-un minut să se recepţioneze 5 impulsuri
astfel: 3 impulsuri să ajungă ı̂n primele 10 secunde şi 2 impulsuri ı̂n ultimile 15 secunde.
15
Obţinem λ = 60 = 14 şi

P ({X(10) = 3, X(60) − X(45) = 2}) = P ({X(10) = 3})P ({X(60) − X(45) = 2}) =


10 3 − 10 2 − 15
4
e 4 154
e 4
= P ({X(10) = 3})P ({X(60 − 45) = 2}) = .
3! 2!

Momentul de producere al unui eveniment ı̂ntr-un proces Poisson.


Ne interesează, pe de altă parte, următorul eveniment: ştiind că ı̂n intervalul (0, t) s-a
produs exact un eveniment, ce densitate de probabilitate are momentul de producere, pe
care ı̂l notăm cu s, 0 6 s 6 t. s este o variabilă aleatoare continuă a cărei densitate de
probabilitate o notăm cu g. Să determinăm funcţia de repartiţie.
P ({X(s) = 1, X(t) = 1})
F (s) = P ({X(s) = 1}|{X(t) = 1}) = =
P ({X(t) = 1})

P ({X(s) = 1, X(t) − X(s) = 0}) P ({X(s) = 1, X(t − s) = 0} e−λs λse−λ(t−s) s


= = −λt
= .
P ({X(t) = 1}) P {X(t) = 1}) e (λt) t
Densitatea de probabilitate este atunci
1
g(s) = , 0 6 s 6 t,
t
care este densitatea de probabilitate a repartiţiei uniforme; deci producerea ı̂n intervalul
(0, t) a unui singur eveniment se face după legea uniformă.

Exemplul 5.2.2 Doi clienţi ajung la o staţie ı̂ntr-o perioadă de două minute. Să de-
terminăm probabilitatea ca ambii să ajungă ı̂n primul minut. Timpii fiind repartizaţi
uniform şi independent, rezultă că probabilitatea este 14 .

Timpul la care s-a produs evenimentul n ı̂ntr-un proces Poisson.


Apariţia unui ”client” la o ”staţie de deservire” este supus legii Poisson cu parametrul
λ. Dacă staţia se ı̂nchide după apariţia clientului n să determinăm densitatea de pro-
babilitate pentru timpul T ı̂n care staţia rămâne deschisă. Fie Ti timpul dintre sosirea
clientului i − 1 şi a clientului i (T1 este timpul de la deschidere până la sosirea primului
client). Avem deci
T = T1 + . . . + Tn ,
unde {T < t} semnifică faptul că staţia s-a ı̂nchis până la momentul t, deci au apărut cel
puţin n clienţi, iar probabilitatea este dată de legea Poisson cu parametrul λt

X (λt)k
P ({T < t}) = e−λt .
k=n
k!
Procese stochastice 207

Prin derivare găsim


∞ 
X 
(λt)k−1 λ(λt)k λ(λt)n−1 −λt
fT (t) = λk − e−λt = e
k=n
k! k! (n − 1)!

care este o densitate de probabilitate pentru variabila numită repartiţia Erlang.

Exemplul 5.2.3 Numărul de semnale emise de un radar este un proces Poisson cu


parametrul λ. Dacă n semnale au fost observate ı̂n intervalul (0, t) să determinăm pro-
babilitatea evenimentului {k particule au fost emise ı̂n (0, τ )} cu τ < t.

P ({k semnale emise ı̂n (0, τ ) | n semnale emise ı̂n (0, t)}) =
P ({k semnale emise ı̂n (0, τ ) şi n − k semnale emise ı̂n (τ, t)})
= =
P ({n semnale emise ı̂n (0, t)})
e−λτ (λτ )k e−λ(t−τ ) (λ(t−τ ))n−k  τ k 
k! (n−k)! τ n−k
= (λt)n
= Cnk 1− .
e −λt t t
n!

Exemplul 5.2.4 Semnalul telegrafic aleator.


Fie T (t) un proces care ia stările ±1 cu aceeaşi probabilitate la momentul iniţial. T (t)
ı̂şi schimbă polaritatea odată cu sosirea unui semnal dintr-un proces Poisson cu parametrul
α. Reprezentăm o traiectorie ı̂n Figura 5.4.
Să calculăm probabilităţile evenimentelor {T (t) = ±1}.
Ne ocupăm pentru ı̂nceput de evenimentul {T (t) = 1}. Folosind formula probabilităţii
totale avem

P ({T (t) = 1}) = P ({T (t) = 1}|{T (0) = 1})P ({T (0) = 1})+

+P ({T (t) = 1}|{T (0) = −1})P ({T (0) = −1}).


Calculăm probabilităţile condiţionate. Notăm cu A = { ı̂n intervalul (0, t) se produce un
număr par de schimbări } şi cu B = { ı̂n intervalul (0, t) se produce un număr impar de
schimbări }
+∞
X (λt)2j e−λt λt
P ({T (t) = 1}|{T (0) = 1}) = P (A) = eλt = (e + e−λt ) =
j=0
(2j)! 2

1
= (1 + e−2λt ).
2
1
P ({T (t) = 1}|{T (0) = −1}) = P (B) = (1 − e−2λt ).
2
1
Deoarece P ({T (0) = 1}) = P ({T (0) = −1}) = 2 , rezultă după ı̂nlocuiri că evenimentele
{T (t) = ±1} au probabilitatea 12 .
208 Procese stochastice

Procese de naştere-moarte.

Vom modela ı̂n continuare următoarea situaţie practică ce apare ı̂n teoria aşteptării.
Considerăm un sistem format dintr-un ”fir de aşteptare” formată din n ”clienţi” şi o
persoană care serveşte. Spunem că sistemul se află ı̂n starea Sn dacă sunt n ”clienţi” la
coadă, inclusiv cel servit (dacă există). Din starea Sn sunt posibile doar două tranziţii:
- la starea Sn−1 dacă un client a fost servit şi părăseşte coada;
- la starea Sn+1 dacă un client este ı̂ncă servit ı̂n timp ce un nou client se aşează la
coadă.
Considerăm un proces care descrie comportarea cozii ı̂n timp. La momentul t, dacă
sistemul precedent se află ı̂n starea Sn , vom nota X(t) = n. Se obţine astfel un proces
Markov. Facem următoarele ipoteze:
1. Dacă sistemul este ı̂n starea Sn , poate realiza tranziţii la Sn−1 sau la Sn+1 , n > 1
(de la S0 este posibilă doar S1 ).
2. Probabilitatea unei tranziţii Sn → Sn+1 ı̂ntr-un interval scurt ∆t este αn ∆t pa-
rametrul αn se numeşte parametru de ”naştere”şi facem ipoteza că depinde de starea
Sn .
3. Probabilitatea unei tranziţii Sn → Sn−1 ı̂ntr-un interval de lungime ∆t este βn ∆t
parametru βn se numeşte parametru de ”moarte”.

Probabilitatea ca ı̂n intervalul (t, t + ∆t) să aibă loc mai mult de o tranziţie este 0.
Sistemul se află ı̂n starea Sn la momentul t + ∆t ı̂n următoarele situaţii:
a. La momentul t se află ı̂n starea Sn şi nici o tranziţie nu are loc ı̂n intervalul (t, t+∆t)
cu probabilitatea (1 − αn ∆t)(1 − βn ∆t), care poate fi aproximată cu 1 − αn ∆t − βn ∆t.
b. Fiind ı̂n starea Sn−1 la momentul t are loc o tranziţie la starea Sn ı̂n intervalul
(t, t + ∆t) cu probabilitatea αn−1 ∆t.
c. La momentul t sistemul se află ı̂n starea Sn+1 şi o tranziţie la starea Sn are loc ı̂n
(t, t + ∆t) cu probabilitatea βn+1 ∆t.

Notăm Pn (t) = P ({ X(t) se află ı̂n starea Sn }) şi facem ipoteza că că Pn (t) este o
funcţie derivabilă cu derivată continuă. Atunci

Pn (t + ∆t) = Pn (t)(1 − αn ∆t − βn ∆t) + αn−1 ∆tPn−1 (t) + βn+1 ∆tPn+1 (t), n > 1,

P0 (t + ∆t) = P0 (t)(1 − α0 ∆t) + β1 ∆tP1 (t).


Impărţind prin ∆t
Pn (t + ∆t) − Pn (t)
= −(αn + βn )Pn (t) + αn−1 Pn−1 (t) + βn+1 Pn+1 (t), n > 1,
∆t
P0 (t + ∆t) − P0
∆t = −α0 P0 (t) + β1 P1 (t).
∆t
Dacă ∆t → 0, obţinem

Pn0 (t) = −(αn + βn )Pn (t) + αn−1 Pn−1 (t) + βn+1 Pn+1 (t), n > 1,

P00 (t) = −α0 P0 (t) + β1 P1 (t).


Procese stochastice 209

Vom da soluţii pentru aceste ecuaţii diferenţiale ı̂n cazul ı̂n care Pn (t) nu depinde de t; ı̂n
acest caz sistemul precedent devine

(αn + βn )Pn = αn−1 Pn−1 + βn+1 Pn+1 , n > 1,
α0 P0 = β1 P1 ,
şi se rezolvă prin recurenţă. Se obţine soluţia
α0
P1 = P0
β1
α0 α1
P2 = P0
β1 β2 .
..
.
α0 α1 . . . αn−1
Pn = P0
β1 β2 . . . β n
Deoarece sistemul trebuie să se afle ı̂ntr-o stare, suma probabilităţilor precedente trebuie
să fie 1, deci  
α0 α0 α1
P0 1 + + + . . . = 1.
β1 β1 β2

Exemplul 5.2.5 Intr-o ”staţie” sosesc ”clienţi” după legea Poisson cu parametrul λ, iar
timpul de servire este o lege exponenţială cu parametrul pozitiv µ, 0 < λ < µ. Dacă este
aglomeraţie se formează o coadă, iar starea sistemului la momentul X(t) este un proces
de naştere -moarte cu parametrii αn = λ şi βn = µ. Particularizând ecuaţiile precedente
şi notând ρ = µλ găsim
λ
P1 = P0
µ 
 2
λ
P2 = P0 = ρ2 P0
µ .
..
.  n
λ
Pn = P0 = ρn P0
µ
Punem condiţia
1
P0 (1 + ρ + ρ2 + . . .) = P0 = 1, ρ < 1.
1−ρ
De aici rezultă P0 = 1 − ρ. Deducem Pn = (1 − ρ)ρn , pentru n = 0, 1, . . ., care este re-
partiţia geometrică.Să particularizăm această situaţie. Pentru a evita aglomeraţia dintr-o
staţie de deservire, clienţii aşezaţi la coadă ar trebui să nu depăşească numărul 5, cu
probabilitatea 0,99. Sosirile au loc după o lege Poisson cu parametrul λ = 1, 5 clienţi pe
minut. Dacă deservirea se face după o lege exponenţială, cât de repede trebuiesc aceştia
serviţi ? Să determinăm deci µ.
Probabilitatea ca cel puţin 5 clienţi să fie la coadă este

X λ
p= (1 − ρ)ρn = ρ5 ; ρ = .
n=5
µ
210 Procese stochastice

Pentru ca această probabilitate să fie 1-0,99 =0,01, punem condiţia

ρ5 6 0, 1

de unde găsim µ > 9, 12. Deci ar trebui serviţi cel puţin 10 clienţi ı̂n medie pe minut
pentru a evita aglomeraţia.

5.3 Procese stochastice staţionare


În unele situaţii stările precedente ale unui sistem exercită un puternic efect asupra
stărilor viitoare. În general dacă procesele au fost considerate fără postacţiune (procese
Markov), se pot face unele corectări ı̂n alegerea stărilor. De exemplu, dacă considerăm
o schimbare ı̂n poziţia unei particule ı̂n procesul de difuzie, considerat ca proces fără
postacţiune, aceasta ı̂nseamnă că se neglijează inerţia particulei. Situaţia se poate corecta
introducând ı̂n conceptul de stare şi viteza particulei, alături de coordonatele poziţiei.
În cazul cel mai general Hincin a izolat o clasă importantă de procese stochastice cu
postacţiune, numite procese staţionare. Acestea se ı̂ntâlnesc ı̂n fenomenele acustice, teoria
semnalelor etc.
Fie {X(t)}, t > 0, un proces stochastic.

Definiţia 5.3.1 Numim funcţie de repartiţie n−dimensională funcţia dată prin formula

F (x1 , . . . , xn , t1 , . . . , tn ) = P ({X(t1 ) < x1 , . . . , X(tn ) < xn })

pentru orice t1 , . . . , tn , n ∈ IN .

Presupunem că funcţia de repartiţie n-dimensională satisface următoarele două condiţii:


-condiţia de simetrie

F (xi1 , . . . , xin , ti1 , . . . , tin ) = F (x1 , . . . , xn , t1 , . . . , tn ), (5.13)

pentru orice permutare i1 , . . . , in a mulţimii 1, . . . , n,


-condiţia de compatibilitate; dacă m < n

F (x1 , . . . , xm , t1 , t2 , . . . , tm ) =

= F (x1 , . . . , xm , ∞, . . . , ∞, t1 , . . . , tm , tm+1 , . . . , tn ), m + 1 6 j 6 n. (5.14)


Kolmogorov a demonstrat că aceste funcţii de repartiţie caracterizează complet un proces
stochastic, ı̂n sensul că dată o familie de funcţii ce verifică condiţiile 1-4, din Capitolul 3.3
şi satisface (5.13), (5.14), există un câmp borelian de probabilitate şi un proces stochastic
care admite aceste funcţii, ca funcţii de repartiţie n-dimensionale (vezi [9]). Prin analogie
cu cazul variabilelor aleatoare n-dimensionale, se poate introduce noţiunea de densitate
de probabilitate, care se va nota f (x1 , . . . , xm , t1 , t2 , . . . , tm ). Dacă procesul este cu valori
discrete, analogul ı̂l constituie

p(x1 , . . . , xm , t1 , t2 , . . . , tm ) = P ({X1 (t1 ) = x1 , X2 (t2 ) = x2 , . . . , Xn (tn ) = xn })


Procese stochastice 211

Exemplul 5.3.1 Fie Xn un lanţ de variabile aleatoare identic, independent repartizate,


cu p = 12 , atunci

P ({X1 (t1 ) = x1 , X2 (t2 ) = x2 , . . . , Xn (tn ) = xn }) = 2−n .

Valori caracteristice ale unui proces.


Fie X(t) un proces aleator. Media mX (t) este definită prin
Z +∞
mX (t) = M [X(t)] = xf (x, t)dx,
−∞

unde f (x, t) este densitatea de probabilitate a variabilei X(t). Autocorelaţia RX (t1 , t2 )


este definită prin
Z +∞ Z +∞
RX (t1 , t2 ) = M [X(t1 )X(t2 )] = xyf (x, y, t1 , t2 )dxdy,
−∞ −∞

unde f (x, y, t1 , t2 ) este densitatea de probabilitate de dimensiune doi a procesului. Autocovarianţa


CovX (t1 , t2 ) este definită drept covarianţa variabilelor X(t1 ) şi X(t2 ),

CovX (t1 , t2 ) = M [(X(t1 ) − mX (t1 ))(X(t2 ) − mX (t2 ))].

Legătura dintre cele două funcţii este imediată şi constă ı̂n

CovX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ).

Dispersia (varianţa) lui X(t) este dată de formula

D2 [X(t)] = M [(X(t) − mX (t))2 ] = CovX (t, t).

Coeficientul de corelaţie este definit de

CovX (t1 , t2 )
ρX (t1 , t2 ) = p p .
CovX (t1 , t1 ) CovX (t2 , t2 )

Exemplul 5.3.2 Fie X(t) = A cos 2πt, unde A este o variabilă aleatoare. Să determinăm
valorile caracteristice.

mX (t) = M [A cos 2πt] = M [A] cos 2πt;

RX (t1 , t2 ) = M [A cos 2πt1 A cos 2πt2 ] = M [A2 ] cos 2πt1 cos 2πt2 ;

CovX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) = (M [A2 ] − M 2 [A]) cos 2πt1 cos 2πt2 =

= D2 [A] cos 2πt1 cos 2πt2 .


212 Procese stochastice

Procese multiple.
Două procese X(t), Y (t) se numesc independente dacă ∀ k, j şi orice alegere t1 , . . . , tk şi
t01 , . . . t0j , variabilele aleatoare multidimensionale (X(t1 ), . . . , X(tk )) şi
0 0
(Y (t1 ), . . . Y (tj )) sunt independente. Corelaţia ı̂ncrucişată RXY (t1 , t2 ) este definită prin
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )].
Procesele X(t) şi Y (t) se numesc ortogonale dacă
RXY (t1 , t2 ) = 0, ∀t1 , t2 .
Covarianţa ı̂ncrucişată CovXY (t1 , t2 ) este definită prin
CovXY (t1 , t2 ) = M [(X(t1 ) − mX (t1 ))(Y (t2 ) − mY (t2 ))] = RXY (t1 , t2 ) − mX (t1 )mY (t2 ).
Procesele se numesc necorelate dacă
CovXY (t1 , t2 ) = 0, ∀t1 , t2 .

Exemplul 5.3.3 Fie X(t) = cos(ωt + Θ) şi Y (t) = sin(ωt + Θ) unde Θ este o variabilă
aleatoare repartizată uniform pe [−π, +π]. Să determinăm covarianţa ı̂ncrucişată. Arătăm
că media procesului X(t) este 0.
Z π
1
mX (t) = M [cos(ωt + θ)] = cos(ωt + x)dx = 0.
2π −π
Analog rezultă că media procesului Y (t) este 0.
RXY (t1 , t2 ) = M [cos(ωt1 + Θ) sin(ωt2 + Θ)] =
1 1 1
= M [− sin(ω(t1 − t2 )) + sin(ω(t1 + t2 ) + 2Θ)] = − sin(ω(t1 − t2 ))
2 2 2
deoarece M [sin(ω(t1 + t2 ) + 2Θ)] = 0.

Definiţia 5.3.2 Procesul X(t) se numeşte staţionar ı̂n sens restrâns dacă ∀t1 , . . . , tn
∈ IR+ , n ∈ IN , u ∈ IR+ are loc
F (x1 , . . . xn , t1 + u, . . . , tn + u) = F (x1 , . . . , xn , t1 , . . . , tn ). (5.15)

Relaţia (5.15) se interpretează astfel: funcţiile de repartiţie n-dimensionale nu depind de


creşterea timpului. Dacă ı̂n (5.15) dăm lui n valoarea 2, găsim că funcţiile de repartiţie
bidimensionale depind numai de diferenţa t2 − t1 . Deoarece ı̂n practică lucrul cu funcţiile
de repartiţie este dificil se pune problema ı̂nlocuirii lor cu alte caracteristici şi anume cu
momentele. Dacă X(t) are dispersie finită şi X(t) este staţionar ı̂n sens restrâns găsim:
1.M [X(t + u)] = M [X(t)] = M [X(0 + t)] = M [X(0)] = m;
2.D2 [X(t + u)] = D2 [X(t)] = D2 [X(0)] = σ 2 ;
3.M [(X(t + u)X(t))] = M [(X(u)X(0))].
Ca o primă consecinţă a acestor proprietăţi, observăm că ı̂n cazul proceselor staţionare
putem presupune m = 0 şi σ = 1, ceea ce revine la considerarea procesului normalizat,
X(t) − m
adică .
σ
Procese stochastice 213

Definiţia 5.3.3 Procesul X(t) este staţionar ı̂n sens larg dacă au loc condiţiile 1-3.

Definiţia 5.3.4 Numim funcţie de corelaţie a unui proces staţionar ı̂n sens larg coefi-
cientul de corelaţie al variabilelor aleatoare X(t) şi X(t + u).

Deci funcţia de corelaţie are expresia


M [X(t + u) − M [X(t + u)]]M [X(t) − M [X(t)]]
R(u) = p .
D2 [X(t)]D2 [X(t + u)]
Dacă facem ipoteza m = 0 şi σ = 1 din condiţia de a fi staţionar rezultă că funcţia de
corelaţie depinde doar de u şi are expresia

R(u) = M [(X(u)X(0))].

Definiţia 5.3.5 Un proces staţionar se numeşte continuu dacă are loc

M (X(t + u) − X(t))2 → 0, pentru u → 0.

Propoziţia 5.3.1 Dacă X(t) este un proces continuu, atunci au loc:


1. P ({ |X(t + u) − X(t) | > ε}) → 0, dacă u → 0;
2. lim R(u) = 1;
u→0
3. R(u) este continuă.

Demonstraţie.
1. Din inegalitatea lui Cebâşev , rezultă

P ({|X(t + u) − X(t)| > ε}) = P ({|X(t + u) − X(t) − M [(X(t + u) − X(t))]| > ε}) 6
D2 [(X(t + u) − X(t))]
6 ,
ε
care din definiţia continuităţii tinde la 0, dacă u → 0.
2. Se observă imediat că

M (X(t + u) − X(t))2 = 2(1 − R(u)) → 0, dacă u → 0,

de unde afirmaţia 2.
3. Folosind inegalitatea lui Cauchy are loc

|R(u + ∆u) − R(u)| = |M [(X(u + ∆u)X(0))] − M [(X(u)X(0))]| =


p
= |M [(X(0)(X(u + ∆u) − X(u))]| 6 M [X 2 (0)]M [(X(u + ∆u) − X(u))2 ] → 0,
dacă ∆u → 0.
Teorema 5.3.1 (Teorema lui Hincin) Funcţia reală R(u) este o funcţie de corelaţie pentru
un proces staţionar continuu dacă şi numai dacă există o funcţie de repartiţie F (x) astfel
ı̂ncât Z ∞
R(u) = cosux dF (x).
−∞
214 Procese stochastice

Demonstraţie. Să presupunem mai ı̂ntâi că R(u) este o funcţie de corelaţie pentru un proces
staţionar continuu. Din proprietatea precedentă R(u) rezultă continuă şi mărginită. Să
arătăm că este şi pozitiv definită. Pentru orice numere reale u1 , u2 , . . . , un din IR şi
η1 , . . . , ηn ∈ C unde n ∈ IN , are loc
n n X n
!
X X
0 6 M | ηk X 2 (uk )| = M ηi η j X(ui )X(uj ) =
k=1 i=1 j=1

n X
X n
= R(ui − uj )ηi η j .
i=1 j=1

Deoarece R(0) = 1 din teorema Bochner-Hincin are loc reprezentarea


Z ∞
R(u) = eiux dF (x),
−∞

unde F este o funcţie de repartiţie. Deoarece R este o funcţie reală, rezultă afirmaţia.
Reciproc, să arătăm că dacă
Z ∞
R(u) = cosux dF (x),
−∞

există un proces staţionar X(t) cu funcţia de corelaţie R(u). Fie n ∈ IN , t1 , t2 , . . . , tn şi


variabila aleatoare n-dimensională normal repartizată X(t1 ), . . . X(tn ) cu

M [X(t1 )] = . . . = M [X(tn )] = 0,

D2 [(X(t1 ))] = . . . = D2 [(X(tn ))] = 1,


având funcţiile de corelaţie

R(ti − tj ) = M [X(ti )X(tj )].

Deoarece forma pătratică


n X
X n
R(ti − tj )ui uj
i=1 j=1

este pozitiv definită, se pot defini funcţiile de densitate


n X
X n
− R(ti − tj )ui uj
i=1 j=1
fn (u1 , . . . , un , t1 , . . . , tn ) = An e , An ∈ IR.

Se verifică uşor că funcţiile de repartiţie asociate satisfac condiţiile de simetrie şi compa-
tibilitate, deci definesc un proces stochastic, care rezultă staţionar.
Procese stochastice 215

Exemplul 5.3.4 Considerăm procesul de forma

Z(t) = X(t) cos λt + Y (t) sin λt, λ ∈ IR,

unde X(t), Y (t) sunt procese necorelate, deci M [XY ] = M [X)M [Y ] ce satisfac

M [X] = M [Y ] = 0, D2 [X] = D2 [Y ] = 1.

Să arătăm că Z(t) este un proces staţionar. Pentru aceasta să calculăm funcţia de corelaţie

R(u) = M [X(t + u)X(t)] =

= M [X cos λ(t + u) + Y sin λ(t + u))(X cos λt + Y sin λt)] =


= M [(X 2 cos λt cos λ(t + u) + XY (sin λ(t + u) cos λt + cos λ(t + u) sin λt)+
+Y 2 sin λt sin λ(t + u)] = cos λ(t + u) cos λt + sin λt sin λ(t + u) = cos λu.
Alegem 
 0, x 6 −λ
1
f (x) = , −λ < x 6 λ .
 2
1, x>λ
Avem atunci Z Z
∞ λ
cos λu = cos uxdF (x) = cos uxdF (x),
−∞ −λ
de unde ı̂n virtutea teoremei rezultă că procesul este staţionar.

Exemplul 5.3.5 Considerăm procesul


n
X
X(t) = bk Zk (t),
k=1

n
X
unde b2k = 1, iar Zk (t) = Xk (t) cos λk t+Yk sin λk t, λk ∈ IR. Xk (t), Yk (t) sunt preocese
k=1
ce satisfac
M [Xk ] = M [Yk ] = 0, D2 [Xk ] = D2 [Yk ] = 1, k = 1, n
M [Xi Xj ] = M [Yi Yj ] = 0, i 6= j, M [Xi Yj ] = 0, i, j = 1, n.
Calculând funcţia de corelaţie, găsim
n
X
R(u) = b2k cos λk u,
k=1

de unde rezultă că procesul este staţionar, asociat funcţiei de repartiţie F care are salturi
de mărimea 21 b2k ı̂n punctele ±λk .

In literatura de specialitate F se numeşte spectru; dacă F este funcţie de salturi, procesul


se numeşte cu spectru discret. Slutsky a demonstrat că orice proces cu spectru discret
este reprezentabil sub forma celui din exemplul precedent.
216 Procese stochastice

PROBLEME PROPUSE

Problema 4.1 Fie In procesul Bernoulli identic şi independent repartizat. Calculaţi
P ({I1 = 1, I2 = 0, I3 = 0, I4 = 1}).
R: p2 (1 − p)2 .
Problema 4.2 Fie Dn = 2In − 1 unde In este procesul din problema precedentă.
Calculaţi media şi dispersia.
Soluţie mX (n) = M [2In −1] = 2M [In ]−1 = 2p−1 D2 [Dn ] = D2 [2In −1] = 22 D2 [In ] =
4p(1 − p). Procesul reprezintă de fapt schimbarea poziţiei unei particule care se mişcă ı̂n
linie dreaptă făcı̂nd salturi de ±1 la fiecare unitate de timp.
Problema 4.3 Fie X un număr ales la ı̂ntı̂mplare din [0, 1] şi fie dezvoltarea lui ı̂n
+∞
X
baza 2, x = bn 2−n , bn ∈ {0, 1}. Definim Xn = bn , n ∈ IN . Calculaţi P ({X1 = 0}) şi
n=1
P ({X1 = 0, X2 = 1}).
Soluţie. X1 = 0, dacă 0 6 X 6 12 , deci cu probabilitatea 12 . Iar P ({X1 = 0, X2 = 1})
este 14 , deoarece 14 6 X 6 12 .
Problema 4.4 Un calculator este inspectat la momentele t1 , t2 , t3 şi se poate afla ı̂n
una din următoarele stări:
s1 funcţionează normal;
s2 are un număr neglijabil de erori, care nu impiedică calculatorul să funcţioneze;
s3 are erori considerabile, dar rezolvă limitat probleme;
s4 nu funcţionează.
La momentul iniţial calculatorul este ı̂n starea s1 iar matricea de tranziţie este
 
0, 5 0, 3 0, 2 0
 0 0, 4 0, 4 0, 2 
P =  0
.
0 0, 3 0, 7 
0 0 0 1

Asociaţi diagrama şi aflaţi probabilităţile de stare după fiecare din cele trei inspecţii.
Soluţie. Probabilităţile de stare iniţială sunt (1, 0, 0, 0), deoarece iniţial calculatorul
funcţionează. Apoi

p1 (1) = 0, 5, p2 (1) = 0, 3, p3 (1) = 0, 2, p4 (1) = 0

p1 (2) = 0, 25, p2 (2) = 0, 27, p3 (2) = 0, 28, p4 (2) = 0, 2


p1 (3) = 0, 125, p2 (3) = 0, 183, p3 (3) = 0, 242, p4 (3) = 0, 450.
Procese stochastice 217

Diagrama este următoare


Problema 4.5 O particulă se deplasează aleator, sărind câte o unitate la dreapta sau
stânga, după diagrama de mai jos. Găsiţi probabilitatea ca după patru paşi particula să
nu fie mai depărtată cu o unitate faţă de origine. Iniţial particula se află ı̂n origine.
R: Însumăm probabilităţile, ca la momentul 4, particula să se afle ı̂n stările S−1 , S0 ,
sau S1 şi găsim 0,693.
Problema 4.6 Fie X(t) = cos(ωt + Θ) unde Θ este repartizată uniform pe (−π, +π).
Să determinăm media, autocorelaţia şi autovarianţa.
R +π
1
Soluţie mX (t) = M [cos(ωt + Θ)] = 2π π
cos(ωt + x)dx = 0;
CovR X+π(t11 , t2 ) = RX (t1 , t2 ) = M [cos(ωt1 + θ) cos(ωt2 + θ)] =
1 1
2π π 2
(cos(ω(t 1 − t 2 )) + cos(ω(t 1 + t 2 ) + 2x)) dx = 2
cos(ω(t1 − t2 )).

Problema 4.7 Fie Xn un lanţ de variabile normale independente, identic repartizate,


cu media m şi dispersia σ 2 . Determinaţi matricea de covarianţă la momentele t1 , . . . , tk
şi densitatea de probabilitate. 
2 1 i=j
Soluţie CX (ti , tj ) = σ δij unde δij =
0 i 6= j
f (x1 , . . . , xk , X1 , . . . , Xk ) = fX (x1 )fX (x2 ) . . . fX (xk ) =
k
X
(xi − m)2
1 i=1
= e 2σ 2 .
(2πσ 2 )k/2

Problema 4.8 Un proces Y (t) constă dintr-un semnal dorit X(t) la care se adaugă
zgomotul N (t), deci Y (t) = X(t) + N (t). Găsiţi corelaţia ı̂ncrucişată dintre cele două
procese, presupunı̂nd că X(t), N (t) sunt independente.
Soluţie Folosind independenţa variabilelor X(t) şi N (t), găsim

RXY (t1 , t2 ) = M [X(t1 )Y (t2 )] = M [X(t1 )(X(t2 ) + N (t2 ))] =

= M [X(t1 )X(t2 )] + M [X(t1 )N (t2 )] =


= RXY (t1 , t2 ) + M [X(t1 )]M [N (t2 )] = RXY (t1 , t2 ) + mX (t1 )mN (t2 ).

Problema 4.9 În ziua 0 există 2 becuri noi de rezervă. Probabilitatea de a schimba
un bec este p, iar probabilitatea de a nu schimba este q = 1 − p. Fie Yn numărul de becuri
necesar la sfârşitul zilei n. Determinaţi matricea de tranziţie după un pas şi după n paşi,
probabilităţile de stare la momentul n şi comportarea lor la limită.
Soluţie Stările procesului sunt 2,1,0, iar diagrama corespunzătoare este
Matricea de tranziţie cu un pas este
 
1 0 0
P = p 1−p 0 
0 p 1−p

iar probabilităţile de stare la momentul iniţial sunt 0, 0, 1. După n paşi


218 Index

p22 (n) = P ({ nici un bec nou nu e necesar ı̂n n zile}) = q n ;


p21 (n) = P ({ un bec nou este necesar ı̂n n zile}) = Cn1 pq n−1 ;
p20 (n) = 1 − p22 (n) − p21 (n);
Matricea de tranziţie după n paşi este
 
1 0 0
Pn =  1 − qn qn 0 .
n n−1 n−1
1 − q − npq npq qn

Trecı̂nd la limită pe fiecare element al matricei găsim matricea


 
1 0 0
 1 0 0 .
1 0 0

Probabilităţile de stare la momentul n sunt date de produsul


 
1 0 0
(0 0 1)  1 − qn qn 0 
n n−1 n−1
1 − q − npq npq qn

iar la limită se obţine (1 0 0). Interpretarea evidentă este că după un număr foarte mare
de paşi procesul devine ”staţionar” şi rămân 0 becuri de rezervă.

Index
Index

matricea de covarianţă, 121 momentele iniţiale, 147


repartiţia Fisher , 148 momentele iniţiale ale repartiţiei Gama, 149
momentele repartiţiei Beta, 150
coeficient de corelaţie, 119
momentele repartiţiei Student, 142
corelaţia variabilelor, 119
momentele variabilei aleatoare normale n-
densitate de probabilitate, 91 dimensionale, 135
densitate de probabilitate n-dimensională,
normală normată, 93
100
densitate marginală de probabilitate, 101 q-cvantile, 88
densitatea de probabilitate condiţionată, 97
Repartiţia Beta, 150
formula de inversiune, 125 repartiţia Erlang, 149
formula lui Bayes, 98, 113 repartiţia exponenţială, 152
formula probabilităţii totale, 113 repartiţia lognormală, 104
formula probabilitaţii totale, 98 repartiţia normală, 93
formulele integrale ale mediei totale, 121 repartiţia normală n-dimensională, 106
funcţia caracteristică a repartiţiei Gama, 149 repartiţia Rayleigh, 108
funcţia caracteristică a repartiţiei normale , repartiţia Snedecor, 147
132 repartiţia Student , 142
funcţia de repartiţie, 85 repartiţia uniformă, 92
funcţie caracteristică, 123 repartiţia uniformă n-dimensională, 102
funcţie de fiabilitate, 150 repartiţia Weibull, 152
funcţie de repartiţie n dimensională, 99
funcţie de repartiţie condiţionată, 89 teorema Bochner-Hincin, 129
funcţie marginală de repartiţie, 101 teorema lui Bochner, 128
funcţie pozitiv definită, 129 teorema lui Cochran, 141
funcţiei lui Laplace, 94
variabilă aleatoare, 83
legare ı̂n paralel, 154 variabilă aleatoare n-dimensională, 99
legare ı̂n serie, 153 variabilă aleatoare continuă, 88
variabile aleatoare independente, 85
media, 114
variabile necorelate, 119
media condiţionată, 121
mediana, 89
medii condiţionate, 121
modul, 115
moment centrat de ordin k, 116
moment pentru variabilă aleatoare multidi-
mensională, 120

219

Вам также может понравиться