Вы находитесь на странице: 1из 15

João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M.

de Castro 1

1 Distribução t de Student
Definição. Dizemos que a v.a. X tem uma distribuição t-Student se sua
f dp é da forma

Γ k+1

2 1
fX (x) = √ · k+1 IR (x). (1)
Γ k2

kπ 1 + x2  2
k
O parâmetro k é chamado “grau de liberdade ”.

Notação: X ∼ t(k)

Na Figura 1, apresentamos o gráfico para a função densidade de proba-


bilidade de (1) para certos valores de k.
0.35

k=2

k=1
k = 0.5
0.30
0.25
0.20
f(x)

0.15
0.10
0.05
0.00

−10 −5 0 5 10

Figura 1: Gráfico da função densidade t-Student

Observação 1. Lê-se a notação acima do seguinte modo: X segue distri-


buição t- Student com k graus de liberdade.

Observação 2. Quando k = 1, temos

Γ (1) 1 1
f (x) = 1 √
 · 1 = IR (x)
Γ 2 π (1 + x )
2 π(1 + x2 )

e portando, X tem distribuição Cauchy padrão, e consequentemente, E(X)


não existe.

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 2

1.1 Fato 1
Z ∞
f (x)dx = 1
−∞

Prova:

∞ ∞  −(k+1)
x2
Z Z 
dx 2
I=  k+1 =2 1+ dx
−∞ 1+ x2 2 0 k
k
x2

fazendo u = k
⇒ x2 = ku ⇒ x = ks ⇒ dx =
assim
Z ∞

−(k+1) k
I = (1 + u) 2 √ du
0 2 u
√ Z ∞ −1 −(k+1)
= k u 2 (1 + u) 2 du
0

Sabemos que

xa−1
Z
dx = IB(a, b)
0 (1 + x)a+b
então
∞ 1
u 2 −1
Z  
1 k
B ,
k+1 du = I
0 (1 + u) 2 2 2

Analisando agora a parte constante de f (x) temos

Γ k+1 k+1
 
1 Γ 1
k
 2√ =√ k
 2 1 = √ 1 k

Γ 2 kπ kΓ 2 Γ 2 k · IB ,
2 2
Assim
∞  −(k+1)

x2
Z  Z
1 2
f (x)dx = √ 1 k
 1 +
−∞ k · IB ,
2 2 | −∞
k
{z }
I

 
1 1 k
= √  · k · IB , =1
k · IB 12 , k2 2 2

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 3

1.2 Aparecimento
A distribuição T aparece na teoria estatı́stica como a razão entre duas variáveis
aleatórias independentes, Z ∼ N (0, 1) e V ∼ χ2 (k),
Z
X=q .
V
k

O parâmetro k é chamado de graus de liberdade


Vamos obter a densidade de X através do teorema da mudança de variáveis.
Prova:

A conjunta de (Z, V ) é dada por:

1 2 1
g(z, v) = √ e−z /2 k
 v k/2−1 e−v/2 IR (z) IR+ (v),
2π Γ 2
2k/2
que pode ser posta na forma:

1 2 )/2
g(z, v) = k
 1
 v k/2−1 e−(v+z IR (z) IR+ (v),
Γ 2
Γ 2
2(k+1)/2

Considere a variável auxiliar A = V . Vamos obter a conjunta de:

Z kZ √
X=q = √ e A= V.
V V
k

Assim as funções inversas são dadas por:


ax
w2 (x, a) = v = a2 , e w1 (x, a) = √ .
k
O jacobiano da transformação é dado por:
∂w ∂w a
√ √x

1 1
2
= 2a
∂x ∂a k k
J = = √ .

∂w2 ∂w2 0 2a
k
∂x ∂a

A densidade de X = h1 (Z, V ) e A = h2 (Z, V ) com suporte B é dada por:

g(x, a) = f (w1 (x, a), w2 (x, a)) |J| IB (x, a).


Logo,

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 4

1 2 k/2−1
2 2
−(a2 + a kx )/2 2a2 ax
g(x, a) = k
 1
 (a ) e √ IR ( √ ) IR+ (a2 ),
Γ 2
Γ 2
2(k+1)/2 k k
que pode ser posta na forma:

1 2
 
k − 12 1+ xk a2
g(x, a) = k
 1
 √ a e IR (x) IR+ (a),
Γ 2
Γ 2
2(k−1)/2 k
A marginal de X é dada por:

Z ∞
f (x) = g(x, a) da
−∞
Z ∞  2

k − 12 1+ xk a2
= c a e da
0
= cI,

onde
1
c= k
√ .
Γ 21 2(k−1)/2 k
 
Γ 2
Por outro lado

Z ∞  2

k − 12 1+ xk a2
I = daa e
0
x2
 
1
= IGG(k + 1, 1+ a2 , 2)
2 k
Γ k+1

2
=   k+1 2 2
2 1+ xk
k+1
2 2
k+1

Γ 2
=   k+1
2 2
1+ xk
k−1
2 2

A densidade de X, f (x) = cI, é dada por:

Γ k+1

1
f (x) = k
 21 √ k+1 IR (x).
Γ 2 Γ 2 k 1 + x2  2
k

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 5

1.3 Função de Distribuição


A função de distribuição (f d) de X ∼ t(k) é dada por

k+1
x

Γ
Z
2 1
F (x) = k
√ ·  k+1 dt
−∞ Γ 2
kπ 1+ t2 2
k

Na Figura 2, apresentamos o gráfico da função de distribuição t-Student


para certos valores de k.
1.0
0.8
0.6
F(x)

0.4
0.2

k=2

k=1
k = 0.5
0.0

−10 −5 0 5 10

Figura 2: Gráfico da função de distribuição t-Student

Esta função vem tabelada em alguns livros de Estatı́stica, para alguns


valores de k e valores de p = P (X ≤ t0 ). Vamos utilizar o R para se calcular
as seguintes probabilidades

a) P [t(8) ≤ 3, 36]

> pt(3.36,8)
[1] 0.9950341

b) P [t(10) ≥ 2, 90]

> pt(2.9,10,lower.tail=FALSE)
[1] 0.0079168

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 6

c) P [0, 159 ≤ t(27) ≤ 0, 263]

> pt(0.263,27)-pt(0.159,27)
[1] 0.04015254

um outro resultado importante que podemos obter no R é o valor de t0 em


que P (t(10) ≤ t0 ) = 0, 95, da forma
> t0=qt(0.95,10);t0
[1] 1.812461
Seja também P (t(k) ≤ t(k) ) = 0, 975, analisando essa probabilidade observa-
mos que a medida que k cresce t(k) decresce de 12,71 para 1,96 que é o valor
da normal padrão de modo que

P (Z ≤ 1, 96) = 0, 975

essa probabilidade é muito importante na estatı́stica aplicada, pois costuma-


se aproximar-se a distribuição t de Student para a distribuição normal padrão
sempre que k ≥ 30, isto é,

P (t(k) ≤ t0 ) ≈ P (Z ≤ t0 ) = Φ(t0 )

esta propriedade pode ser verificada diretamente, ou seja, seja X ∼ t(k) então
2
e−x /2
lim f (x) = √
k→∞ 2π
Prova
k+1

Γ 2 1
f (x) = k
√ ·  k+1
Γ 2
kπ 1 + x2 2
k

vamos analisar os seguintes limites


− k+1 − k2 − 12
x2 x2 x2
 2
 
lim 1+ = lim 1+ · lim 1 +
k→∞ k k→∞ k k→∞ k
mas
− 12 − 12
x2 x2
   
1
lim 1 + = lim 1 + = 1− 2 = 1
k→∞ k k→∞ k

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 7

por outro lado, sabemos que


k
x2

2
lim 1 + = ex
k→∞ k
assim
− k2
x2

x2
lim 1+ = e− 2
k→∞ k

este limite é um caso especial do seguinte limite


 cn
b ψ(n)
lim 1 + + = ebc
n→∞ n n

em que, b e c não dependem de n e limn→∞ ψ(n) = 0. Na aplicação acima


x2
temos: b = x2 , c = − 12 , ψ(n) = 0 e assim ebc = e− 2 . Para o outro limite
vamos usar a aproximação
1 2k−1 k
Γ(k) ≈ (2π) 2 k 2 e− 2 (fórmula de Stirling)

assim
k+1

Γ
C(k) = k
2√
Γ 2
k
1  k2 k+1
(2π) 2 k+1
2
e− 2
≈ 1  k−1 k√
(2π) 2 k
2
2
e− 2 k
k k−1 k 1
(k + 1) 2 2e− 2 e− 2 2
≈ k k−1 k√
2 2 k 2 e− 2 k
k 1
k + 1 2 e− 2

≈ √
k 2
  k2 − 1
1 e 2
≈ 1+ √
k 2
portanto
 k2 1
e− 2

1
lim C(k) = 1+ √
k→∞ k 2
1
= √
2

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 8

logo

C(k) 1
lim √ = √
k→∞ π 2π
assim
1 x2
lim f (x) = √ e− 2
k→∞ 2π
conhecida como a função densidade de probabilidade de distribuição normal
padrão.

1.4 Momentos, Assimetria e Excesso de Curtose


O r-ésimo momento em relação à origem de X ∼ t(k) , k > 1 é dado por


 0 , se r for ı́mpar;
IE(X r ) = r
k 2 Γ( r+1 )Γ( k−r )
2 2
, se r for par.

k √

Γ( 2 ) π

Prova

∞ k+1

Γ
Z
1
IE(X r ) = xr k
2
√ ·  k+1 dx
−∞ Γ 2
kπ 1 + x2 2
k

se r for um número ı́mpar temos que o valor de IE(X r ) será nulo, pois obte-
remos uma função ı́mpar. Agora para o caso em que r é par obtemos
Z ∞ k+1

Γ 1
IE(X r ) = 2 xr k  2√ · k+1 dx
0 Γ 2 kπ 1 + x2  2
k

Γ( k+12 ) x2

fazendo V = √
Γ( k2 ) kπ
e fazendo u = k
⇒ x2 = ku ⇒ x = ks ⇒ dx =

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 9

temos
Z ∞ r
r (uk) 2 k
IE(X ) = V k+1 · √ du
0 (1 + u) 2 uk
Z ∞ r+1
−1
r+1 u 2
= Vk 2
r+1 k−r du
(1 + u) 2 + 2
0
 
r+1 r+1 k−r
= V k 2 IB ,
2 2
r+1
Γ k+1 k 2 Γ( r+1 )Γ( k−r

2 2 2
)
= k
 √ · k+1
Γ 2 kπ Γ( 2 )
r
k 2 Γ( r+1
2
)Γ( k−r
2
)
= √
Γ( k2 ) π

IE(X) = µ = 0

2
2 k 2 Γ( 23 )Γ( k−2
2
)
IE(X ) = √
Γ( k2 ) π

k 2π
= k
√
2
−1 π
k
2
= k−2
2
k
= , k>2
k−2

IE(X 3 ) = 0

4
4 k 2 Γ( 52 )Γ( k−4
2
)
k √
IE(X ) =
Γ( 2 ) π

k 2 4!32π
= k √
2
−2 π
k2
= , k>4
(k − 2)(k − 4)

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 10

A variância de X ∼ t(k) é dada por

k
V ar(X) = , k>2
k−2
Prova

V ar(X) = IE(X 2 ) − IE 2 (X)


k
= , k>2
k−2
A assimetria de X ∼ t(k) é dada por

α3 = 0
Prova

Sabemos que
µ3
α3 =
σ3
em que µ3 = IE[(X − µ)3 ] = IE(X 3 ) = 0.Logo
α3 = 0
O excesso de curtose de X ∼ t(k) é dada por
6
α4 = , k>4
k−4
Prova

Sabemos que
µ4
α4 = −3
σ4
k2
em que µ4 = IE[(X − µ)4 ] = IE(X 4 ) = (k−2)(k−4)
, k > 4. Calculando µ4 .
Assim
k2
(k−2)(k−4)
α4 = k2
−3
(k−2)2
3k − 6
= −3
k−4
6
= , k>4
k−4

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 11

1.5 Moda “Mo ”


A moda de X ∼ t(k) é dada por

Mo = 0

Prova

k+1

Γ 2 1
f (x) = k
√ ·  k+1
Γ 2
kπ 1+ x2 2
k
x2
     
k+1 k 1 k+1
g(x) = ln Γ − ln Γ − ln(kπ) − ln 1 +
2 2 2 2 k
k+1
2x
g 0 (x) = − 2
2 ·
1 + xk
k
k+1 x
g 0 (x) = −
k 1 + xk2
x2
00 k+1 1− k
g (x) = − x2
k 1+ k

Assim, g 0 (Mo ) = 0
k+1 Mo
− · 2 = 0
k 1 + Mko

Portanto,

Mo = 0,

pois g”(0) = − k+1


k
< 0.

1.6 Relações entre Distribuições


Se X ∼ t(k) então
1 k 1
Y = 2 ∼ Beta , .
1 + xk 2 2
Prova
x2
x ∈ IR ⇒ x2 ≥ 0 ⇒ k
≥ 0.

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 12

x2 1
1+ k
≥1⇒ 2 ≤ 1 ⇒ 0 ≤ y ≤ 1. partindo de
1 + xk
 
1
G(y) = P (Y ≤ y) = P 2 ≤ y
1 + Xk
X2
   
1 2 k(1 − y)
= P 1+ ≤ =P X ≥
k y y
 s   s 
k(1 − y) k(1 − y)
= P |X| ≥ = 2P X ≥
y y

  r 
1
= 2 1 − FX k −1
y
derivando a expressão acima obtemos

− k

 r 
y2 1
g(y) = 2 · (−1) · q f k −1
2 y1 − 1 y
√ √ k+1
y −2 k y y 2 Γ k+1

= √ √ 2
1 − y Γ k2 πk
Γ k+1

k −1
2 −1
= √ y 2 (1 − y) 2 I (y)
Γ k2 πk

(0,1)

logo Y =∼ Beta k2 , 12


Se X ∼ t(k) então Y = X 2 ∼ F (1, k).


Prova y = x2 ≥ 0. A função de distribuição de Y é da forma
G(y) = P (Y ≤ y) = P (X 2 ≤ y)
√ √ √
= P (|X| ≤ y) = F ( y) − F (− y)
derivando a equação acima

1 √ √ f ( y)
g(y) = √ [f ( y) + f (− y)] = √
2 y y
k+1

1 Γ 2 1
= √ √
y Γ 2 kπ 1 + y  k+1
k
2
k
assim a densidade de Y é da forma
Γ k+1

2 − 12 − 12 1
g(y) = √ k y I (y)
Γ k2 π  k+1

y
1+ k 2 (0,∞)

logo Y ∼ F (1, k).

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 13

1.7 Aplicações
A distribuição t de Student têm várias aplicações em inferência estatı́stica,
tanto em teste de hipóteses e intervalos de confiança para as médias quanto
em estimação de variâncias. Vamos tratar de algumas delas.

1.7.1 Uma População com distribuição Normal


Considere uma amostra aleatória de tamanho n de X ∼ N (µ, σ 2 ) e seja
(n − 1)S 2 2
Pn (xi −x̄)2
X̄ ∼ N (µ, σ 2 /n) e ∼ χ(n−1) , em que S 2
= i=1 n−1 é um
σ2
estimador não viesado para a variância e independente de x̄. Assim
X̄−µ

σ/ n X̄ − µ
T =q = √
(n−1)S 2 S n
σ2
/(n − 1)

tem distribuição t(n−1) , já que em população Normal X̄ e S 2 são independen-


tes.

1.7.2 Duas Populações Normais


Vamos considerar inicialmente duas populações normais independentes com
mesma variância.
Sejam X ∼ N (µ1 , σ 2 ) e Y ∼ N (µ2 , σ 2 ).
Sejam X1 , X2 , · · · , Xn uma amostra aleatória de X e Y1 , Y2 , · · · , Yn uma
amostra aleatória de Y , independentes. Assim se fizermos

(X̄ − Ȳ ) − (µ1 − µ2 )
1 1

temos uma distribuição normal com média zero e variância σ 2 m
+ n
.
Para estimarmos a variância comum σ 2 usaremos:
(m − 1)S12 + (n − 1)S22
Sp2 =
m+n−2
e como S12 é independente de X̄ e S22 é independente de Ȳ . Além disso
X̄ e Ȳ são independentes bem como S12 e S22 também o são.

(X̄ − Ȳ ) − (µ1 − µ2 )
T = q
Sp m1 + n1

tem distribuição t(m+n−2) . vamos estudar agora o caso de duas populações


normais dependentes.

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 14

1.7.3 Dados Pareados


Agora (X, Y ) uma variável aleatória normal bidimensional com parâmetros
µ1 , µ2 , σ12 ,σ22 e ρ.
Considere a amostra aleatória (Xi , Yi ), ∀i = 1, 2, · · · , n.
Faça Di = Xi − Yi , i = 1, 2, . . . , n. Logo
µD = E(Di ) = E(Xi ) − E(Yi ) = µ1 − µ2 ,

2
σD = V (Di ) = V (Xi ) + V (Yi ) − 2cov(Xi , Yi ) = σ12 + σ22 − 2ρσ1 σ2 .

Assim podemos pensar que D1 , D2 , . . . , Dn é uma amostra aleatória de


2
tamanho n de D ∼ N (µD , σD ). Assim temos o caso de uma única população
normal novamente. A diferença retira a dependência entre as populações.
2
Sejam D̄ = X̄ − Ȳ , a média amostral e SD a variância amostral de nossa
amostra de diferenças.
A quantidade pivotal apropriada é

D̄ − µD D̄ − (µ1 − µ2 )
T = = ,
sD SD
tem distribuição t de Student com (n − 1) graus de liberdade.

1.8 Intervalos de confiança


Em determinados intervalos de confiança e teste de hipóteses usando a dis-
tribuição t de Student definimos como
Z tα,k
F (tα,k ) = f (t; k)dt = 1 − α
−∞

isto é, é a probabilidade que a variável com distribuição t(k) exceda tα,k .
Observe que, como a distribuição é simétrica em torno so zero, temos que
tα,k =−t1−α,k . No caso de uma amostra com distribuição normal descrita nas
subseções anteriores e se adotarmos um nı́vel de confiança de 1−α, o intervalo
de confiança para µ é dado por
s s
x̄ − √ tα/2,k−1 ≤ µ ≤ x̄ + √ tα/2,k−1
n n

DEMA - UFC
João Maurı́cio A. Mota, Juvêncio S. Nobre e Bruno M. de Castro 15

1.9 Teste de hipóteses


Supondo que as amostras são obtidas de uma distribuição normal, podemos
utilizar as estatı́sticas de teste expostas anteriormente. Vamos exemplicar
um possı́vel teste, no caso em temos uma única amostra e desejamos, usando
o teste bilateral, testar a hipótese H0 : µ = µ0 e a hipótese alternativa
H1 : µ 6= µ0 . Utilizamos, supondo H0 verdade, a estatı́stica t = x̄−µ √0 e
s/ n
rejeitaremos H0 com um nı́vel de significância α se |t| > tα/2,k−1 . Se o teste
unilateral, a hipótese alternativa é da forma H1 : µ > µ0 ou H1 : µ > µ0

1.9.1 Distribuição amostral


Seja X1 , X2 , · · · , Xn uma amostra aleatória de N (µ, σ 2 ). Ilustrar no R o
resultado que justifica o teste-t para a média de uma amostra,
x̄ − µ
√ ∼ tn−1
S/ n

em que S é o desvio padrão e n o tamanho da amostra.

i) Escolha os parâmetros de uma distribuição normal;

ii) Escolha o tamanho da amostra n e á quantidade de simulações N ;

iii) Agora simule N amostras de tamanho n;


x̄−µ
iv) Para cada valor da amostra calcule V = √
S/ n

v) reproduza um histograma com os valores de V e compare com a curva


da distribuição tn−1 .

Um exemplo para a simulação acima é

n=18
N=1000

y=matrix(rnorm(n*N,100,6),nc=N)
T=apply(y,2, function(x) {(mean(x)-100)*sqrt(n)/sd(x)});T
mean(T)
var(T)
hist(T, prob=TRUE, main="Histograma de T",ylab="f(t)",xlab="t")
curve(dt(x,n-1),add=T)

DEMA - UFC

Вам также может понравиться