Вы находитесь на странице: 1из 257

Mtodos Probabilsticos e Estatsticos para

Engenharias e Cincias Exatas


Marcilia Andrade Campos Leandro Chaves Rgo
10 de Maro de 2011
Prefcio
Este livro cobre um programa de Probabilidade, Estatstica, Processos Estocsticos e Es-
tatstica Descritiva de um curso de graduao nas reas de exatas e tecnologia. O objetivo
que possa ser usado como um livro texto e portanto contm muitos exerccios resolvidos e
outros tantos propostos. Este livro uma publicao inicial. Falta colocar todos os grcos
e completar o captulo sobre Processos Estocsticos.
Recife, . . .
Marcilia Andrade Campos &
Leandro Chaves Rgo
i
Lista de Smbolos
IN conjunto dos nmeros naturais
Z conjunto dos nmeros inteiros
Z
+
conjunto dos nmeros inteiros positivos
I Q conjunto dos nmeros racionais
IR conjunto dos nmeros reais
I C conjunto dos nmeros complexos
conjunto vazio
a, b, x, y nmeros reais
x vetor real
A -lgebra
B -lgebra de Borel
espao de resultados elementares, espao amostral
evento simples, resultado elementar
A, B eventos aleatrios, eventos
A
c
ou A evento complementar de A
P(A) probabilidade de A
P(A | B) probabilidade condicional de A dado B
X, Y , Z variveis aleatrias
(X
1
, , X
n
) ou X
1
, , X
n
amostra aleatria simples
iid variveis aleatrias independentes e identicamente distribudas
f funo densidade
f
X
funo densidade da varivel aleatria X
F funo de distribuio acumulada ou funo de distribuio
F
X
funo de distribuio da varivel aleatria X
F

X
funo de distribuio do vetor aleatrio

X

X vetor aleatrio
se distribui, a varivel aleatria tem distribuio
||A|| cardinalidade, tamanho ou dimenso do conjunto A
innito
se e somente se
limite de seqncia monotnica no-decrescente
limite de seqncia monotnoca no-crescente
implica
ii
interseo
unio
e
ou
no
pertence
no pertence
< menor
> maior
menor ou igual
maior ou igual
incluso
incluso estrita
aproximadamente igual
= diferente
equivalente
para todo ou qualquer que seja
existe
: tal que
P(A), 2
A
conjunto das partes de A
| | valor absoluto
A
k
n
, (n)
k
arranjo de n elementos tomados k deles
C
k
n
ou
_
n
k
_
combinao de n elementos tomados k deles
! fatorial
iii
Contedo
Prefcio i
Lista de Smbolos ii
1 Introduo Probabilidade 1
1.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Operaes com Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Produto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Conjunto das Partes . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Partio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.5 Funo Indicadora . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Breve Histrico sobre o Estudo da Chance e da Incerteza . . . . . . . . . . . 7
1.3 Experimento Aleatrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Espao Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Eventos e Coleo de Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Fundamentos de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.1 Hierarquia de Conceitos Estruturais de Probabilidade . . . . . . . . . 14
1.6.2 Interpretaes de Probabilidade . . . . . . . . . . . . . . . . . . . . . 15
1.7 Frequncia Relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8 Axiomas de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8.1 Exemplos de Medidas de Probabilidade . . . . . . . . . . . . . . . . . 19
1.8.2 Propriedades de uma Medida de Probabilidade . . . . . . . . . . . . . 23
1.9 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Espaos Amostrais Finitos 35
2.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Regra da Adio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Regra da Multiplicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Amostragem ou Escolhas com ou sem Reposio . . . . . . . . . . . . . . . . 37
2.5 Permutaes e Arranjos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Combinaes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7 Aplicaes em Grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.1 Grafos No Direcionados . . . . . . . . . . . . . . . . . . . . . . . . . 41
iv
2.7.2 Grafos Direcionados . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.8 Contagem Multinomial ou Permutao com Elementos Repetidos . . . . . . 42
2.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Probabilidade Condicional. Independncia 48
3.1 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Independncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4 Variveis Aleatrias Unidimensionais e Funes 68
4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2 Funo de Distribuio Acumulada . . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Tipos de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.1 Varivel Aleatria Discreta . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.2 Varivel Aleatria Contnua . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.3 Varivel Aleatria Singular . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.4 Decomposio de uma Varivel Aleatria . . . . . . . . . . . . . . . 75
4.4 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5 Vetores Aleatrios e Funes 90
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2 Funo de Distribuio Acumulada Conjunta . . . . . . . . . . . . . . . . . . 90
5.2.1 Vetor Aleatrio Discreto . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2.2 Vetor Aleatrio Contnuo . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3 Distribuies Marginais e Condicionais . . . . . . . . . . . . . . . . . . . . . 93
5.4 Independncia entre Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . 96
5.5 Funes de Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.5.1 Distribuio de Z = X + Y . . . . . . . . . . . . . . . . . . . . . . . 99
5.5.2 Distribuio de Z = XY . . . . . . . . . . . . . . . . . . . . . . . . 101
5.5.3 Distribuio de Z =
Y
X
. . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.5.4 Jacobiano de uma Funo . . . . . . . . . . . . . . . . . . . . . . . . 106
5.6 Aprendendo um pouco mais... . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.6.1 Extenso do Mtodo Jacobiano para o Clculo de Densidades de Fun-
es de Vetores Aleatrios Quaisquer . . . . . . . . . . . . . . . . . . 108
5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6 Esperana e outros Momentos 116
6.1 Deni73o da Esperan7a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.2 Esperana de Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . 117
6.2.1 Caso Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2.2 Caso Contnuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.3 Propriedades da Esperana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.4.1 Momentos Centrais. Varincia . . . . . . . . . . . . . . . . . . . . . . 122
v
6.4.2 Propriedades da Varincia e de outros Momentos . . . . . . . . . . . 123
6.5 A Desigualdade de Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.6 Momentos Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.7 Esperana Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.8 Aprendendo um pouco mais... . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.8.1 As integrais de Riemman-Stieltjes e de Lebesgue-Stieltjes . . . . . . . 129
6.8.2 Propriedades da Integral de Lebesgue-Stieltjes . . . . . . . . . . . . . 132
6.8.3 Denio da Esperana - Caso Geral . . . . . . . . . . . . . . . . . . 133
6.8.4 Interpretao Geomtrica da Esperana . . . . . . . . . . . . . . . . . 134
6.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7 Principais Variveis Aleatrias Discretas 140
7.1 Bernoulli de parmetro p, B(p) . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.2 Binomial de parmetros n e p, B(n, p) . . . . . . . . . . . . . . . . . . . . . 141
7.3 Poisson de parmetro , P() . . . . . . . . . . . . . . . . . . . . . . . . . . 142
7.3.1 Poisson como um Limite de Eventos Raros de Binomial . . . . . . . . 144
7.4 Geomtrica de parmetro p, G(p) . . . . . . . . . . . . . . . . . . . . . . . . 145
7.5 Pascal de parmetros r e p, Ps(p, r) . . . . . . . . . . . . . . . . . . . . . . . 147
7.6 Hipergeomtrica de parmetros N, D, e n, H(n, N, r) . . . . . . . . . . . . . 149
7.7 Zeta Zipf de parmetro > 1, Z() . . . . . . . . . . . . . . . . . . . . . . . 150
7.8 Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8 Principais Variveis Aleatrias Contnuas 157
8.1 Uniforme de parmetros a e b, U(a, b) . . . . . . . . . . . . . . . . . . . . . . 157
8.2 Exponencial de parmetro > 0, Exp() . . . . . . . . . . . . . . . . . . . . 158
8.3 Normal de parmetros e , N(,
2
) . . . . . . . . . . . . . . . . . . . . . 159
8.3.1 Tabulao da Distribuio Normal . . . . . . . . . . . . . . . . . . . 162
8.4 Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.5 Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.6 Lognormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.7 Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.8 Qui-quadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.9 t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.10 F-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.11 Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.12 Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
8.13 A Distribuio Normal Bivariada . . . . . . . . . . . . . . . . . . . . . . . . 167
8.14 Distribuio de caudas-pesadas . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.15 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9 Teoremas Limite. Resultados relativos a Distribuies 174
9.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
9.2 Lei de Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
vi
9.3 Teoremas Centrais de Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
9.4 Transformaes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . 178
9.5 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.5.1 Modos de Convergncia . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.5.2 Funo Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.3 Lei Fraca dos Grandes Nmeros de Khintchine (1929) . . . . . . . . . 181
9.5.4 Lei Forte dos Grandes Nmeros de Kolmogorov (1933) . . . . . . . . 181
9.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
10 Introduo aos Processos Estocsticos 187
10.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
10.1.1 Denio e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
10.1.2 Equaes de Chapman-Kolmogorov e Classicao do Estados . . . . 189
10.1.3 Teoremas Envolvendo Limites . . . . . . . . . . . . . . . . . . . . . . 191
10.2 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
11 Anlise Exploratria de Dados 197
11.1 Tipos de Variveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
11.2 Anlise preliminar de um conjunto de observaes . . . . . . . . . . . . . . . 198
11.2.1 Representaes Grcas . . . . . . . . . . . . . . . . . . . . . . . . . 198
11.2.2 Sumarizando Observaes . . . . . . . . . . . . . . . . . . . . . . . . 199
11.2.3 Dados agrupados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
11.2.4 Quantis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
11.2.5 Dados no agrupados . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
11.2.6 Separatrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
11.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
12 Uma Introduo Inferncia Estatstica 209
12.1 Populao e Amostra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
12.1.1 Seleo de uma Amostra . . . . . . . . . . . . . . . . . . . . . . . . . 210
12.2 Estatsticas e Parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.2.1 Distribuies Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . 212
12.2.2 Distribuio da Mdia da Amostra, X . . . . . . . . . . . . . . . . . 213
12.2.3 Distribui73o da Varincia da Amostra, S
2
. . . . . . . . . . . . . . . 215
12.2.4 Distribuio da Proporo Amostral, p . . . . . . . . . . . . . . . . . 215
12.2.5 Determinao do Tamanho de uma Amostra . . . . . . . . . . . . . . 216
12.3 Estimadores e Estimativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
12.3.1 Propriedades de Estimadores . . . . . . . . . . . . . . . . . . . . . . . 218
12.4 Intervalos de Conana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
12.4.1 Intervalo de Conana para a Mdia Populacional () com Varincia
Populacional (
2
) Conhecida . . . . . . . . . . . . . . . . . . . . . . . 222
12.4.2 Intervalo de Conana para Mdia Populaional () com Varincia Po-
pulacional (
2
) Desconhecida . . . . . . . . . . . . . . . . . . . . . . 223
12.5 Teste de Hipteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
vii
12.5.1 Procedimento para realizar um Teste de Hiptese . . . . . . . . . . . 231
12.5.2 Teste de Hiptese para a Mdia de uma Populao Normal com Vari-
ncia Conhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
12.5.3 Teste para a Proporo . . . . . . . . . . . . . . . . . . . . . . . . . . 232
12.5.4 Testes para Amostras Grandes . . . . . . . . . . . . . . . . . . . . . . 233
12.5.5 Teste para a Mdia de uma Populao Normal com Varincia Desco-
nhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
12.5.6 Probabilidade de Signicncia . . . . . . . . . . . . . . . . . . . . . . 235
12.5.7 Signicncia Estatstica versus Signicncia Prtica . . . . . . . . . . 236
12.6 Teste de Aderncia ou Teste de Bondade de Ajuste . . . . . . . . . . . . . . 237
Referncias Bibliogrcas 243
A Nmeros de Ponto Flutuante 246
viii
Captulo 1
Introduo Probabilidade
1.1 Conjuntos
Denio 1.1.1: Um conjunto uma coleo de elementos distintos
1
onde os elementos
no so ordenados.
Esta denio intuitiva de um conjunto foi dada primeiramente por Georg Cantor (1845-
1918), que criou a teoria dos conjuntos em 1895. Um conjunto pode ser especicado, listando
seus elementos dentro de chaves. Por exemplo,
A = {0, 1, 2, 3, 5, 8, 13}, B = {0, 1, 2, . . . , 1000}.
Alternativamente, um conjunto pode ser especicado por uma regra que determina seus
membros, como em:
C = {x : x inteiro e positivo} ou D = {x : x par}.
Como em um conjunto a ordem dos elementos no importa, tem-se que:
{1, 2, 3} = {2, 3, 1}.
Se um dado elemento faz parte de um conjunto, diz-se que ele pertence ao conjunto e
denota-se isso com smbolo . Por exemplo, 2 D = {x : x par} ou 3 E = {x :
primo }.
Por outro lado, se um dado elemento no faz parte de um conjunto, diz-se que ele no
pertence ao conjunto e denota-se isso com o smbolo / . Por exemplo, 3 / D = {x : x par}
ou 4 / E = {x : x primo}.
preciso ter cuidado ao distinguir entre um elemento como 2 e o conjunto contendo
somente este elemento {2}. Enquanto, tem-se 2 F = {2, 3, 5}, {2} / F = {2, 3, 5}, pois o
conjunto contendo somente o elemento 2 no pertence F.
1
Na Estatstica comum se falar de conjuntos incluindo o caso onde seus elementos no so distintos.
Por exemplo, o conjunto dos tempos de acesso a um banco de dados, o conjunto das notas de uma dada
disciplina, entre outros, pode ter valores iguais
1
1.1. CONJUNTOS 2
Exemplo 1.1.2: Seja G = {2, {3}}. Ento, 2 G e {3} G, porm 3 / G.
O tamanho de um conjunto A, ||A||, a quantidade de elementos que ele possui, a qual
chamada de sua cardinalidade. A cardinalidades pode ser nita, innita enumervel, ou
innita no-enumervel. Um conjunto nito quando existe uma funo bijetiva cujo dom-
nio igual a este conjunto e a imagem o conjunto dos inteiros no-negativos menores que
um nmero nito; seus elementos podem ser contados, sendo possvel exibir seu ltimo ele-
mento. Um conjunto innito enumervel tem exatamente a mesma quantidade de elementos
que os naturais, ou seja, existe uma funo bijetiva cujo domnio igual a este conjunto e
a imagem igual ao conjunto dos naturais. Um conjunto enumervel se ele for nito ou
innito enumervel. Um conjunto no-enumervel se ele no for enumervel. Por exemplo,
os seguintes conjuntos so enumerveis:
N
n
= {0, 1, 2, . . . , n 1},
Z = {x : x um inteiro},
Z
+
= {x : x um inteiro positivo},
Q = {x : x racional}.
Para notar que o conjunto dos nmeros racionais enumervel considere a seguinte matriz
de nmeros racionais. (Lembrando que um nmero x racional se pode ser escrito sob a
forma
p
q
, onde p e q so inteiros e q = 0.)
0/1 0/2 0/3

1/1 1/2 1/3

2/1 2/2 2/3

3/1 3/2 3/3

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Esta matriz contm todos os racionais no-negativos. Utilizando o mtodo da diagonali-
zao, os elementos da matriz so ordenados, sem repetio, da seguinte forma:
0/1, 1/1, 1/2, 2/1, 1/3, 3/1, . . .
Denindo-se uma correspondncia f onde para cada racional no-negativo r, f(r) repre-
senta a posio em que r aparece na sequncia acima, tem-se que f uma correspondncia 1-1
entre os racionais no-negativos e os naturais. Por exemplo, temos que f(1/2) = 3, f(3) = 6.
Pode-se denir g no conjunto de todos os racionais tal que tal que g(r) = 2(f(r) 1) se
r > 0, e g(r) = 2f(|r|) 1 se r 0. Desse modo, g(r) um natural par se r for um raci-
onal positivo, e um natural mpar, se r for um racional no-positivo. Portanto, g(r) uma
correspondncia 1-1 entre os racionais e os naturais, o que implica que os racionais formam
um conjunto enumervel.
Campos & Rgo
1.1. CONJUNTOS 3
Por outro lado, os conjuntos abaixo so no-enumerveis:
IR = {x : x um nmero real},
(a, b) = {x : a < x < b}, onde a < b,
[a, b] = {x : a x b}, onde a < b.
Em muitos problemas o interesse estudar um conjunto denido de objetos. Por exemplo,
o conjunto dos nmeros naturais; em outros, o conjuntos dos nmeros reais; ou ainda, por
todas as peas que saem de uma linha de produo durante um perodo de 24h, etc. O
conjunto que contm todos os elementos objeto de estudo chamado de conjunto universo e
denotado por . Por outro lado, o conjunto especial que no possui elementos chamado
de conjunto vazio e denotado por . Este conjunto tem cardinalidade 0 e portanto nito.
Por exemplo,
= {} = {x : x IR e x < x} ou = (a, a).
Dois conjuntos A e B podem ser relacionados atravs da relao de incluso, denotada
por A B, e lida A um subconjunto de B ou B contm A, quando todo elemento de A
tambm elemento de B. Diz-se que A um subconjunto prprio de B quando se tem A B,
A = , e B A. Se A subconjunto de B, ento B chamado um superconjunto de A.
Diz-se que A e B so iguais se e somente se A B e B A. Se A B, ento tambm
pode-se dizer que B A.
A relao possui as propriedades de (i) reexividade (A A); (ii) transitividade
(A B, B C A C); e anti-simetria (A B, B A A = B). Contudo, ela no
uma relao completa, ou seja, no verdade que, para todos os conjuntos A e B, ou A B,
ou B A. Tambm fcil vericar que A e A para todo conjunto A.
1.1.1 Operaes com Conjuntos
Conjuntos podem ser transformados atravs das seguintes operaes:
(i) Complementao: A
c
= { : / A}. De acordo com esta denio, para todo
e todo conjunto A, no existe outra opo alm de A ou A
c
; alm disso
no pode ser verdade que A e A
c
simultaneamente.
(ii) Unio: A B = { : A ou B}.
(iii) Interseco: A B = { : A e B}.
(iv) Diferena: AB = A B
c
= { : A e / B}.
Se A B = , ento A e B no tm qualquer elemento em comum, e diz-se ento que A
e B so disjuntos.
Exemplo 1.1.3: Seja = {0, 1, 2, 3, 4, 5, 6, 7}, A = {0, 1, 5} e B = {1, 2, 3, 4}. Ento,
A
c
= {2, 3, 4, 6, 7}, A B = {0, 1, 2, 3, 4, 5}, A B = {1}, AB = {0, 5}.
Campos & Rgo
1.1. CONJUNTOS 4
Exemplo 1.1.4: SejamA, B, C e D subconjuntos do conjunto universo tal que AB = ,
C D = , A C e B D. Prove que A = C e B = D.
Soluo: Basta provar que C A e D B. Seja C, ento como C D = , tem-se
que / D. Logo, como B D, segue que / B. Mas como AB = , tem-se que A.
Portanto, C A.
Para provar que D B, seja D, ento como C D = , tem-se que / C. Logo,
como A C, segue que / A. Mas como A B = , tem que B. Portanto, D B.
Relaes e propriedades das operaes entre conjuntos incluem:
(i) Idempotncia: (A
c
)
c
= A.
Prova: Suponha que (A
c
)
c
. Ento, / A
c
, o que por sua vez implica que A,
ou seja, (A
c
)
c
A. Agora suponha que A, ento / A
c
, e portanto (A
c
)
c
,
ou seja, A (A
c
)
c
. Logo, (A
c
)
c
= A.
(ii) Comutatividade (Simetria): A B = B A e A B = B A.
Prova: Suponha que A B. Ento, A, ou B, o que implica que
BA, ou seja, AB BA. Agora suponha que B A. Ento, B, ou
A, o que por sua vez implica que A B, ou seja, B A A B. Portanto,
A B = B A.
A prova para o caso da interseco anloga e deixada como Exerccio.
(iii) Associatividade: A (B C) = (A B) C e A (B C) = (A B) C.
Prova: Exerccio.
(iv) Distributividade: A(BC) = (AB) (AC) e A(BC) = (AB) (AC).
Prova: Exerccio.
(v) Leis de De Morgan: (A B)
c
= A
c
B
c
e (A B)
c
= A
c
B
c
.
Prova: Suponha que (A B)
c
. Ento, / (A B), o que por sua vez implica
que / A e / B. Logo, A
c
e B
c
, ou seja, (A
c
B
c
). Ento,
(A B)
c
(A
c
B
c
). Agora suponha que (A
c
B
c
). Ento, A
c
e B
c
, o
que por sua vez implica que / A e / B. Logo, / (AB), ou seja, (AB)
c
.
Ento, (A
c
B
c
) (A b)
c
. Portanto, (A
c
B
c
) = (A b)
c
.
A prova da outra Lei de De Morgan anloga e deixada como exerccio.
As Leis de De Morgan permitem que se possa expressar unies em termos de interseces
e complementos e interseces em termos de unies e complementos.
Unies e interseces podem ser estendendidas para colees arbitrrias de conjuntos.
Seja I um conjunto qualquer. Este conjunto I ser utilizado para indexar, ou seja, identicar
atravs de um nico smbolo os conjuntos na coleo arbitrria de interesse e desse modo
Campos & Rgo
1.1. CONJUNTOS 5
simplicar a notao utilizada. Por exemplo, se I = {1, 5, 7}, ento
iI
A
i
= A
1
A
5
A
7
;
ou, se I = N, ento
iN
A
i
= A
1
A
2
A
n
.
De modo anlogo ao caso de dois conjuntos, dene-se:

iI
A
i
= { : pertence a pelo menos um dos conjuntos A
i
, onde i I, }
e

iI
A
i
= { : pertence a todo A
i
, onde i I.}
Se I for um conjunto enumravel, diz-se que
iI
A
i
, respectivamente,
iI
A
i
, uma
unio, respectivamente interseco, enumravel de conjuntos.
Por exemplo, se = 0, 1, 2, . . ., I o conjunto de inteiros positivos divisveis por 3 e
N

= {0, 1, 2, . . . , 1}, ento

I
N

= e
I
N

= N
3
.
Exemplo 1.1.5: Se A
i
= [1, 2 +
1
i
), i IN, ento
iIN
A
i
= [1, 3) e
iIN
= [1, 2].
1.1.2 Produto Cartesiano
Denio 1.1.6: Produto Cartesiano. O produto Cartesiano AB de dois conjuntos
dados A e B o conjunto de todos os pares ordenados de elementos, onde o primeiro pertence
A e o segundo pertence B:
A B = {(a, b) : a A, b B}.
Por exemplo, se A = {1, 2, 3} e B = {c, d}:
AB = {(1, c), (1, d), (2, c), (2, d), (3, c), (3, d)}
e
B A = {(c, 1), (c, 2), (c, 3), (d, 1), (d, 2), (d, 3)}.
O produto cartesiano de dois conjuntos pode ser estendido para n conjuntos da seguinte
maneira: se A
1
, . . . , A
n
forem conjuntos, ento,
A
1
A
2
. . . A
n
= {(a
1
, a
2
, . . . , a
n
) : a
i
A
i
},
ou seja, o conjunto de todas as nuplas ordenadas.
Um caso especial importante o produto cartesiano de um conjunto por ele prprio, isto
, AA. Exemplos disso so o plano euclideano, IRIR, e o espao euclideano tridimensional,
representado por IR IR IR.
Campos & Rgo
1.1. CONJUNTOS 6
1.1.3 Conjunto das Partes
Denio 1.1.7: Dado um conjunto qualquer A, pode-se denir um outro conjunto, conhe-
cido como conjuntos das partes de A, e denotado por 2
A
, cujos elementos so subconjuntos
de A.
Exemplo 1.1.8: Seja A = {1, 2, 3}, ento
2
A
= {, A, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}.
Pode-se provar que a cardinalidade do conjunto das partes de qualquer conjunto dado A
maior que a cardinalidade de A.
Teorema 1.1.9: Se A um conjunto e 2
A
o conjunto das partes de A, no existe uma
funo f : A 2
A
que seja sobrejetiva.
Prova: Recorde que uma funo g : D I sobrejetiva se para todo y I, existe x D
tal que g(x) = y. Suponha por contradio, que existe uma funo sobrejetiva f : A 2
A
.
Dena o conjunto, B = {x A : x / f(x)}. Como f por suposio sobrejetiva e
B 2
A
, tem-se que existe b A tal que f(b) = B. Existem dois casos a considerar: b B
ou b B
c
. Se b B, ento b / f(b). Mas como B = f(b), tem-se que b / B, absurdo. Se
b B
c
, ento b f(b). Mas como B = f(b), tem-se que b B, absurdo.
1.1.4 Partio
Intuitivamente, uma partio de um conjunto universo uma maneira de distribuir os ele-
mentos deste conjunto em uma coleo arbitrria de subconjuntos. Formalmente, tem-se a
seguinte denio:
Denio 1.1.10: Dado um conjunto universo , uma partio = {A

, I} de
uma coleo de subconjuntos de (neste caso, indexados por que toma valores no
conjunto de ndices I) e satisfaz:
(i) Para todo = , A

= ;
(ii)
I
A

= .
Deste modo os conjuntos de uma partio so disjuntos par a par e cobrem todo o conjunto
universo. Portanto, cada elemento pertence a um, e somente um, dos conjuntos A

de uma partio.
Exemplo 1.1.11: Se = {1, 2, 3, 4}, ento {A
1
, A
2
}, onde A
1
= {1, 2, 3} e A
2
= {4},
uma partio de .
Exemplo 1.1.12: A coleo de intervalos {(n, n+1] : n Z} uma partio dos nmeros
reais IR.
Campos & Rgo
1.2. BREVE HISTRICO SOBRE O ESTUDO DA CHANCE E DA INCERTEZA 7
1.1.5 Funo Indicadora
sempre conveniente representar um conjunto Apor uma funo I
A
tendo domnio (conjunto
dos argumentos da funo) e contra-domnio (conjunto dos possveis valores da funo)
binrio {0, 1}.
Denio 1.1.13: Funo Indicadora. A funo indicadora I
A
: {0, 1} de um
conjunto A dada por
I
A
() =
_
1, se A,
0, se / A.
fcil observar que I

() = 1, e que I

() = 0, . Note que existe uma


correspondncia 1-1 entre conjuntos e suas funes indicadoras:
A = B ( )I
A
() = I
B
().
O fato que conjuntos so iguais se, e somente se, suas funes indicadoras forem idnticas
permitem explorar a aritmtica de funes indicadoras:
I
A
c = 1 I
A
,
A B I
A
I
B
,
I
AB
= min(I
A
, I
B
) = I
A
I
B
,
I
AB
= max(I
A
, I
B
) = I
A
+ I
B
I
AB
,
I
AB
= max(I
A
I
B
, 0) = I
A
I
B
c ,
para construir argumentos rigorosos no que se refere a relao entre conjuntos. Ou seja,
proposies sobre conjuntos so transformadas em proposies sobre funes indicadoras e
a lgebra pode ser usada para resolver perguntas menos familiares sobre conjuntos.
Exemplo 1.1.14: Utilizando funes indicadoras, verique que A B B
c
A
c
.
Soluo: Tem-se que
A B I
A
I
B
1 I
A
1 I
B
I
A
c I
B
c B
c
A
c
.
1.2 Breve Histrico sobre o Estudo da Chance e da In-
certeza
Antes de comear as denies e propriedades da funo probabilidade, ser dado um breve
histrico a partir do sculo XVI.
...a era dos jogos de azar...
Campos & Rgo
1.2. BREVE HISTRICO SOBRE O ESTUDO DA CHANCE E DA INCERTEZA 8
Cardano (1501-1576).
Primeiro matemtico que calculou uma probabilidade corretamente. Introduziu a
idia de combinaes para calcular o cardinal do espao amostral e do nmero de
eventos elementares favorveis, de modo que o quociente entre ambos os nmeros
desse um resultado que estivesse de acordo com a experincia.
Fermat (1601-1655), Pascal (1623-1662), Huygens (1629-1695).
Um dos primeiros problemas interessantes em probabilidade foi proposto pelo
nobre francs Chevalier de Mr. O problema o seguinte: dois jogadores, A e
B, concordam em jogar uma srie de jogos, s. Por alguma razo acidental, eles
decidem parar o jogo quando A tem ganho m jogos e B, n, sendo m s, n s e
m = n . A pergunta : como as apostas devem ser divididas?
A soluo desse problema envolveu Fermat, Pascal e Huygens.
Huygens (1629-1695).
Huygens publicou em 1657 o primeiro livro sobre Teoria da Probabilidade De
Ratiociniis in Alae Ludo (On Calculations in Game of Chance), o qual foi muito
bem aceito pelos matemticos da poca e foi a nica introduo Teoria da
Probabilidade durante 50 anos.
Ainda datam desse perodo os fundamentos do conceito de esperana matemtica,
o teorema da adio de probabilidades e o teorema da multiplicao de probabi-
lidades.
...o comeo...
James Bernoulli (1654-1705).
Publicou em 1713 Ars Conjectandi (The Art of Guessing), obra dividida em quatro
partes, onde, na ltima, provou o primeiro limite da Teoria da Probabilidade, A
Lei dos Grandes Nmeros, ou Teorema de Ouro.
Pierre Simon, Marqus de Laplace (1749-1827).
Publicou em 1812 Thorie Analytique des Probabilits, no qual apresentou seus
prprios resultados e os de seus predecessores. Suas contribuies mais impor-
tantes foram a (i) aplicao de mtodos probabilsticos aos erros de observaes
e (ii) formulou a idia de considerar os erros de observaes como o resultado
acumulativo da adio de um grande nmero de erros elementares independentes.
Poisson (1781-1840), Gauss (1777-1855).
Ambos tiveram grande interesse por teoremas limite. A Gauss creditada a
origem da Teoria dos Erros, em particular, dos Mnimos Quadrados.
...estamos chegando...
P. L. Chebyshev (1822-1894), A. A. Markov (1856-1922), A. M. Lyapunov
(1857-1918).
Campos & Rgo
1.2. BREVE HISTRICO SOBRE O ESTUDO DA CHANCE E DA INCERTEZA 9
Desenvolveram mtodos efetivos para provar teoremas limite para soma de vari-
veis aleatrias independentes, mas arbitrariamente distribudas. Chebyshev foi o
primeiro a explorar com profundidade as relaes entre variveis aleatrias e suas
esperanas matemticas.
As contribuies de Markov, relacionam-se com teoremas limite para soma de
variveis aleatrias independentes e a criao de um novo ramo da Teoria da
Probabilidade: a teoria das variveis aleatrias dependentes conhecidas como
Cadeias de Markov.
Uma das contribuies de Lyapunov foi o uso da funo caracterstica para provar
o teorema central do limite.
John von Neumann (1903-1957).
Ainda nessa poca, von Neumann assentou sobre bases rmes a Teoria dos Jo-
gos, em 1928, contribuiu para a descoberta da Mecnica Quntica, contribuiu
para o desenvolvimento da primeira bomba atmica americana e ...inventou o
computador digital!
...a axiomatizao...
Lebesgue, deniu a Teoria da Medida e Integrao.
Borel (1871-1956), estabeleu a analogia entre medida de um conjunto e probabili-
dade de um evento e integral de uma funo e esperana matemtica.
A. N. KOLMOGOROV, publicou em 1933 Foundations of the Theory of Proba-
bility, com a axiomtica que tem sido usada at hoje.
...hoje...
Atualmente, idias recentes em Teoria da Probabilidade so (i) Probabilidade Interva-
lar, (ii) Probabilidades Imprecisas e (iii) Probabilidade sobre Domnios.
Que ferramentas usar, e como, analisar, entender, modelar as seguintes situaes:
(i) anlise de tempo de execuo de um algoritmo:
pior caso (worst-case);
caso mdio (average-case).
(ii) alocamento dinmico de memria;
(iii) anlise do erro de arredondamento acumulado em um algoritmo numrico;
(iv) anlise de um sistema computacional servindo a um grande nmero de usurios.
Campos & Rgo
1.3. EXPERIMENTO ALEATRIO 10
1.3 Experimento Aleatrio
Um experimento qualquer processo de observao. Em muitos experimentos de interesse,
existe um elemento de incerteza, ou chance, que no importa o quanto se saiba sobre o pas-
sado de outras performances deste experimento, no possvel predizer o seu comportamento
em futuras realizaes por vrias razes: impossibilidade de saber todas as causas envolvidas;
dados insucientes sobre as suas condies iniciais; os fenmenos que o geraram podem ser
to complexos que impossibilitam o clculo do seu efeito combinado; ou, na verdade, existe
alguma aleatoriedade fundamental no experimento. Tais experimentos so conhecidos como
experimentos aleatrios. Salvo mencionado em contrrio, este livro restringe-se classe de
experimentos aleatrios cujo conjuntos de possveis resultados seja conhecido
2
.
Os resultados de um experimento aleatrio so caracterizados pelos seguintes componen-
tes:
(i) o conjunto de resultados possveis: ;
(ii) a coleo de conjuntos de resultados de interesse: A;
(iii) um valor numrico, p, da probabilidade de ocorrncia de cada um dos conjuntos de
resultados de interesse.
1.4 Espao Amostral
O conjunto de possveis resultados de um experimento aleatrio chamado de espao amos-
tral. Em um dado experimento aleatrio a especicao do espao amostral deve ser tal que
este (i) liste todos os possveis resultados do experimento sem duplicao e o (ii) faa em
um nvel de detalhamento suciente para os interesses desejados, omitindo resultados que,
embora logicamente ou sicamente possveis, no tenham qualquer implicao prtica na
sua anlise.
Por exemplo, uma nica jogada de uma moeda pode ter o espao amostral tradicional
= {cara, coroa}, ou poderia se considerar que a moeda pode, sicamente, car equilibrada
na borda = {cara, coroa, borda}. Uma outra possibilidade seria levar em considerao as
coordenadas (x, y) do centro da moeda quando ela para aps ser jogada no ar. Portanto,
muito mais se poderia dizer sobre o resultado de uma jogada de uma moeda que os simples
resultados binrios tradicionais cara e coroa. Informaes outras so ignoradas quando se
usa uma hiptese adicional, no mencionada, que existe uma aposta com pagamentos que
dependem apenas de qual lado da moeda cai para cima.
2
importante ressaltar que freqentemente so encontradas situaes prticas onde no se consegue
descrever todos os possveis resultados de um experimento. Uma maneira de contornar este problema
assumir que um resultado possvel do experimento a no ocorrncia de qualquer dos resultados descritos,
contudo, em problemas prticos, tal suposio pode acarretar em diculdades quando se tenta elicitar ou
deduzir probabilidades.
Campos & Rgo
1.5. EVENTOS E COLEO DE EVENTOS 11
1.5 Eventos e Coleo de Eventos
Um evento um subconjunto do espao amostral, ou seja, um conjunto de resultados
possveis do experimento aleatrio. Ao se realizar um experimento aleatrio, se o resultado
pertence a um dado evento A, diz-se que A ocorreu.
Denio 1.5.1: Os eventos A e B so disjuntos ou mutuamente excludentes ou mutua-
mente exclusivos se no puderem ocorrer juntos, ou, em liguagem de conjuntos, A B = .
A ocorrncia de eventos combinados tambm um evento; essas combinaes podem ser
expressas atravs das operaes de conjuntos: complementar, unio, interseco e diferena.
Exemplo 1.5.2: Sejam A, B, e C eventos em um mesmo espao amostral . Expresse os
seguintes eventos em funo de A, B, e C e operaes Booleanas de conjuntos.
(a) Pelo menos um deles ocorre:
A B C.
(b) Exatamente um deles ocorre:
(A B
c
C
c
) (A
c
B C
c
) (A
c
B
c
C).
(c) Apenas A ocorre:
(A B
c
C
c
).
(d) Pelo menos dois ocorrem:
(A B C
c
) (A B
c
C) (A
c
B C) (A B C).
(e) No mximo dois deles ocorrem:
(A B C)
c
.
(f) Nenhum deles ocorre:
(A
c
B
c
C
c
).
(g) Ambos A e B ocorrem, mas C no ocorre:
(A B C
c
).
Embora possa-se pensar que, dado um espao amostral, necessariamente de interesse
analisar todos os seus subconjuntos (e isto eventualmente verdadeiro), tem-se trs razes
para esperar que o interesse seja apenas por alguns de seus subconjuntos. Primeiro, o espao
amostral pode conter um grau de detalhamento superior ao de interesse no problema. Por
exemplo, ele pode representar uma nica jogada de um dado mas o interesse apenas em
saber se o resultado par ou mpar. Segundo, o objetivo associar a cada evento A com
uma probabilidade P(A); como essas probabilidades esto baseadas em algum conhecimento
sobre a tendncia de ocorrer o evento, ou no grau de crena que determinado evento ocorrer,
Campos & Rgo
1.6. FUNDAMENTOS DE PROBABILIDADE 12
o conhecimento sobre P pode no se estender para todos os subconjuntos de . A terceira
(e tcnica) razo para limitar a coleo de eventos de interesse que condies impostas em
P pelos axiomas de Kolmogorov, que sero vistos adiante, podem no permitir que P seja
denida em todos os subconjuntos de , em particular isto pode ocorrer quando for no
enumervel (fato este fora do escopo deste livro [refer]).
Em probabilidade, o interesse em uma coleo especial A de subconjuntos do espao
amostral (A um conjunto cujos elementos tambm so conjuntos!) que so eventos de
interesse no que se refere ao experimento aleatrio E e os quais tem-se conhecimento sobre
a sua probabilidade. A chamado de uma -lgebra de eventos. O domnio de uma medida
de probabilidade uma -lgebra.
Denio 1.5.3: Uma lgebra de eventos F uma coleo de subconjuntos do espao
amostral que satisfaz:
(i) F no vazia;
(ii) F fechada com respeito a complementos (se A F, ento A
c
F);
(iii) F fechada com respeito a unies nitas (se A, B F, ento A B F).
Denio 1.5.4: Uma -lgebra A uma lgebra de eventos que tambm fechada com
relao a uma unio enumervel de eventos,
(i I)A
i
A
iI
A
i
A.
Pelas Leis de De Morgan, tem-se que A tambm fechada com respeito a interseces
enumerveis.
Exemplo 1.5.5:
(a) A menor -lgebra de eventos A = {, };
(b) A maior -lgebra de eventos o conjunto das partes de ;
(c) Um outro exemplo:
= {1, 2, 3}, A = {, , {2}, {1, 3}}.
1.6 Fundamentos de Probabilidade
Raciocnio probabilstico aparece em uma ampla variedade de fenmenos de chance e incer-
teza. Julgamentos probabilsticos so expressos tanto atravs da linguagem quanto atravs
de aes. Ultrapassar um carro em uma estrada com um outro vindo em direo oposta
implica em calcular distncias, velocidades e riscos de coliso; considerando que um julga-
mento errneo pode ter graves consequncias, espera-se que esse erro seja sucientemente
pequeno. Em geral, preciso incorporar, a vrios fenmenos do dia-a-dia, o conhecimento
probabilstico que seja tanto qualitativo e expresso linguisticamente quanto quantitativo e
expresso numericamente.
De acordo com Fine (2005), o raciocnio probabilstico pode ser classicado nas seguintes
dimenses:
Campos & Rgo
1.6. FUNDAMENTOS DE PROBABILIDADE 13
grau de preciso o conceito estrutural;
o signicado, ou interpretao a ser dada probabilidade;
estrutura matemtica formal da funo probabilidade dada por um conjunto de axio-
mas.
O conceito estrutural determina a preciso esperada de que probabilidade represente
fenmenos aleatrios. A interpretao proporciona a base com a qual a probabilidade deve
ser determinada e indica o que se pode aprender com ela, ou seja, o que uma armao
probabilstica signica. O conceito estrutural e a interpretao guiam a escolha dos axiomas.
O conjunto de axiomas, contudo, pode somente capturar uma parte do que se entende da
interpretao.
A compreenso de fundamentos de probabilidade importante, pois aplicaes de teoria
da probabilidade dependem fortemente de seus fundamentos. Por exemplo, os fundamentos
inuem na escolha dos mtodos estatsticos a serem utilizados (frequentistas e Bayesianos,
entre outros) e na interpretao dos resultados obtidos. Os prximos exemplos motivam a
importncia do estudo de fundamentos de probabilidade.
Exemplo 1.6.1: Suponha que Alice tenha uma moeda honesta e que ela e Joo saibam que
a moeda honesta. Alice joga a moeda e olha o resultado. Aps a moeda ser jogada, qual
a probabilidade de cara segundo Joo? Um argumento diria que a probabilidade ainda
1/2, pois Joo nada aprendeu sobre o resultado da jogada, ento ele no deve alterar o valor
de sua probabilidade. Um outro argumento, questiona se realmente faz sentido falar sobre
probabilidade de cara depois que a moeda foi jogada. Segundo este argumento, a moeda ou
caiu cara ou coroa, ento o melhor que Joo pode armar que a probabilidade de cara ou
0 ou 1, mas ele no sabe discernir entre esses valores.
Exemplo 1.6.2: Suponha agora que Alice tenha duas moedas, uma honesta e outra ten-
denciosa e duas vezes mais provvel dar cara que coroa com esta moeda. Alice escolhe uma
das moedas (suponha que ela sabe distinguir as moedas) e est prestes a jog-la. Joo sabe
que uma moeda honesta e que a outra tendenciosa e que duas vezes mais provvel cair
cara que coroa com a moeda tendenciosa, mas ele no sabe qual moeda Alice escolheu nem
lhe foi dada a probabilidade com que Alice escolhe a moeda honesta. Qual a probabilidade
de cara segundo Joo?
Exemplo 1.6.3: Paradoxo de Ellsbergue. Suponha que existam duas urnas cada uma
com 60 bolas. A urna 1 contm 30 bolas azuis e 30 bolas verdes. Tudo que se sabe sobre
a urna 2 que ela contm bolas azuis e verdes, mas no se sabe a distribuio das bolas.
Considere que existem duas loteria com prmios baseados no sorteio de bolas dessas urnas.
Loteria L
1
paga R$1.000,00 se uma bola azul for sorteada na urna 1, e R$0,00 caso contrrio.
Loteria L
2
paga R$1.000,00 se uma bola azul for sorteada na urna 2, e R$0,00 caso contrrio.
A maioria das pessoas quando questionada se prefere um bilhete da Loteria L
1
ou L
2
prefere
um bilhete da loteria L
1
. Suponha agora que temos duas outras loterias L
3
e L
4
, onde a
primeira paga R$1.000,00 somente se uma bola verde for sorteada da urna 1, e a segunda
Campos & Rgo
1.6. FUNDAMENTOS DE PROBABILIDADE 14
para R$1.000,00 somente se uma bola verde for sorteada da urna 2. Tambm, vericado que
a maioria das pessoas que preferiram a loteria L
1
loteria L
2
preferem a loteria L
3
loteria
L
4
. Com estas preferncias, no possvel que o decisor possua uma nica distribuio de
probabilidade subjetiva sobre as cores das bolas na urna 2, pois a primeira preferncia (L
1
sobre L
2
) indica que o decisor considera que existam mais bolas verdes que azuis na urna 2,
e a segunda (L
3
sobre L
4
) indica que o decisor considera que existam mais bolas azuis que
verdes na urna 2. Esse fenmeno conhecido na literatura como averso a ambiguidade,
e pode-se modelar a incerteza do decisor por um conjunto de medidas de probabilidade ao
invs de uma nica medida de probabilidade.
1.6.1 Hierarquia de Conceitos Estruturais de Probabilidade
A seguir apresenta-se uma variedade de conceitos estruturais e interpretaes de probabili-
dade que foram descritos em Fine (2005).
Possivelmente. Possivelmente A o conceito mais rudimentar e menos preciso, e o usado
pelos antigos Gregos para distinguir entre o que era necessrio e o que era contingente.
Existe um nmero de conceitos de possibilidade que incluem os seguintes:
possibilidade lgica, no sentido que no se contradiz logicamente;
possibilidade epistmica, segundo a qual a ocorrncia de A no contradiz o conhe-
cimento, que inclui, mas estende mais que mera lgica;
possibilidade fsica, a ocorrncia de A compatvel com leis fsicas, contudo pode
ser extremamente improvvel por exemplo, uma moeda parando e cando
equilibrada na borda em uma superfcie rgida;
possibilidade prtica, a noo do dia-a-dia segundo a qual A praticamente possvel
se ele tem pelo menos uma verossimilhana no to pequena de ocorrer.
Provavelmente. Provavelmente A um fortalecimento da noo de possibilidade signi-
cando mais que provvel que no provvel. Enquanto ela pode corresponder ao caso
que a probabilidade numrica de A seja maior que 1/2, este conceito no requer qual-
quer comprometimento com uma probabilidade numrica nem com o preciso estado de
conhecimento que uma probabilidade numrica requer.
Probabilidade Comparativa. A pelo menos to provvel quanto B. A probabilidade
comparativa inclui provavelmente A atravs de A pelo menos to provvel quanto
A
c
. Pode ser relacionada com probabilidade numrica atravs de P(A) P(B); em-
bora como nos dois exemplos anteriores, probabilidade comparativa no requer qual-
quer comprometimento com probabilidade numrica.
Probabilidade Intervalar. A tem probabilidade intervalar, ou probabilidade inferior e
superior (P(A), P(A)). Isto permite um grau de indeterminao varivel sem o com-
prometimento de que exista um verdadeiro valor no intervalo; alm dessa proba-
bilidade intervalar, existe outra (Campos, 1997), baseada na matemtica intervalar
(Moore, 1966 e 1979) e na aritmtica de exatido mxima (Kulisch & Miranker, 1981),
Campos & Rgo
1.6. FUNDAMENTOS DE PROBABILIDADE 15
a qual consiste de um intervalo fechado de nmeros reais, [P(A), P(A)] com a preciso
(Sterbenz, 1974) to pequena quanto possvel.
Probabilidade Numrica. A probabilidade de A o nmero real P(A). Este o con-
ceito usual e ser o enfocado neste livro. Enquanto este conceito absorveu quase toda a
ateno de pessoas envolvidas com fenmenos de chance e incerteza e provou ser frut-
fero na prtica cientca, este no o nico conceito utilizado em linguagem ordinria
e no raciocnio probabilstico do dia-a-dia. duvidoso que uma dada probabilidade
numrica seja adequada a todas as aplicaes em que utilizada, e provvel que tenha
inibido o desenvolvimento de teorias matemticas apropriadas para outros fenmenos
aleatrios.
De agora em diante o foco o conceito estrutural mais utilizado que a probabilidade
numrica.
1.6.2 Interpretaes de Probabilidade
Parece no ser possvel reduzir probabilidade a outros conceitos; ela uma noo em si
mesma. O que pode ser feito relacionar probabilidade a outros conceitos atravs de uma
interpretao. Os cinco mais comuns grupos de interpretao para probabilidade so os
seguintes:
1. Lgica: grau de conrmao da hiptese de uma proposio que A ocorre dada uma
evidncia atravs da proposio que B ocorreu. Esta interpretao est ligada a um
sistema lgico formal e no ao mundo fsico. Ela usada para tornar o raciocnio indu-
tivo quantitativo. Quando s evidncias, ou premissas, so insucientes para deduzir
logicamente a hiptese ou concluso, pode-se ainda medir quantitativamente o grau
de suporte que uma evidncia d a uma hiptese atravs de probabilidade lgica. Por
exemplo, um jurado tem de utilizar julgamento que envolvem probabilidades lgicas
para condenar ou no um determinado ru baseado nas evidncias disponveis.
2. Subjetiva: se refere ao grau de crena pessoal na ocorrncia do evento A e medida
atravs da interpretao comportamental de disposio a apostar ou agir. Por exemplo,
se um torcedor de futebol acredita que seu time tem mais de 50% de chance de ganhar
o campeonato, ele dever preferir um bilhete de loteria que lhe pague um prmio L se
seu time for campeo a um outro bilhete que lhe pague um prmio L obteno de
cara no lanamento de uma moeda honesta.
3. Frequentista: se refere ao limite da freqncia relativa de ocorrncia do evento A em
repetidas realizaes no relacionadas do experimento aleatrio E. Note que limites de
freqncia relativas so uma idealizao, pois no se pode realizar innitas realizaes
de um experimento.
4. Propensidade: tendncia, propensidade, ou disposio para um evento A ocorrer. Por
exemplo, consideraes de simetria, podem levar a concluso que um dado tem a mesma
propenso, ou tendncia, a cair em qualquer uma de suas faces.
Campos & Rgo
1.7. FREQUNCIA RELATIVA 16
5. Clssica: baseada em uma enumerao de casos igualmente provveis.
Na maior parte do restante deste livro adota-se a abordagem tradicional de interpretao
de probabilidade, isto , a frequentista.
1.7 Frequncia Relativa
A seguir ser ser discutido o terceiro elemento para modelagem do raciocnio probabilstico,
isto , a associao de uma medida numrica a eventos a qual representa a probabilidade
com que eles ocorrem. As propriedades desta associao so motivadas, em grande parte,
pelas propriedades da frequncia relativa. Considere uma coleo de experimentos aleatrios
E
i
que possuem a mesma -lgebra de eventos A e tm resultados individuais no necessa-
riamente numricos {
i
}. Fixando uma dada sequncia de resultados {
i
}, se o interesse
na ocorrncia de um dado evento A, a frequncia relativa de A nada mas que uma mdia
aritmtica da funo indicadora de A calculada em cada um dos termos da sequncia {
i
},
ou seja,
Denio 1.7.1: A frequncia relativa de um evento A, f
n
(A), determinada pelos resul-
tados {
1
, . . . ,
n
} de n experimentos aleatrios,
f
n
(A) =
1
n
n

i=1
I
A
(
i
) =
N
n
(A)
n
.
Propriedades da frequncia relativa so:
(i) f
n
(A) : A IR.
(ii) f
n
(A) 0.
(iii) f
n
() = 1.
(iv) Se A e B so disjuntos, ento f
n
(A B) = f
n
(A) + f
n
(B).
(v) Se A
1
, A
2
, A
n
, uma seqncia de eventos disjuntos dois a dois, ento f
n
(

i=1
A
i
) =

i=1
f
n
(A
i
).
No que se segue, supe-se que existe alguma base emprica, fsica ou sobrenatural, que
garanta que f
n
(A) P(A), embora que o sentido de convergncia quando n cresce s
ser explicado pela Lei dos Grandes Nmeros (estudada posteriormente). Esta tendncia da
frequncia relativa de estabilizar em um certo valor conhecida como regularidade estatstica.
Deste modo, P herdar propriedades da frequncia relativa f
n
.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 17
1.8 Axiomas de Kolmogorov
Antes de um sistema computacional ou algoritmo ser analisado, vrias distribuies de pro-
babilidade tm de ser analisadas. De onde vm essas distribuies? Como possvel avaliar
a vazo (throughput), tempo de resposta (response time), conabilidade (reliability) e dis-
ponibilidade (availability) de um sistema de comunicao? Estas e outras perguntas esto
ligadas a problemas de avaliao de desempenho, a qual suportada, primordialmente, por
Probabilidade, Estatstica e Processos Estocsticos.
Questes de probabilidade em situaes prticas basicamente constituem-se, como seria
o esperado, em como calcular probabilidades. A onde a situao se complica. Se o
espao amostral nito, pode-se usar a denio clssica e a complicao consiste em
contar, o que implica no uso de tcnicas de anlise combinatria, que, no so fceis. Se o
problema envolve volumes de slidos, possvel, em algumas situaes, usar as chamadas
probabilidades geomtricas e o problema est resolvido. Se o espao amostral enumervel,
conhecimentos sobre progresses geomtricas adquiridos no segundo grau resolvem alguns
problemas. Uma outra forma para calcular probabilidades usar a frequncia relativa como
sendo a probabilidade para um dado evento. Nesse caso teramos que ter um grande nmero
de observaes, mas, o que grande? Portanto a construo axiomtica da teoria da
probabilidade, abstrai o clculo de probabilidades de casos particulares e nos prov de um
mtodo formal para resolver problemas probabilsticos.
Os axiomas descritos a seguir no descrevem um nico modelo probabilstico, apenas de-
terminam uma famlia de modelos probabilsticos, com os quais podem-se utilizar mtodos
matemticos para encontrar propriedades que sero verdadeiras em qualquer modelo proba-
bilstico. A escolha de um modelo especco satisfazendo os axiomas feita pelo probabilista,
ou estatstico, familiar com o fenmeno aleatrio sendo modelado.
As propriedades de frequncia relativa motivam os primeiros quatro axiomas de Kolmo-
gorov:
(K1) Inicial. O experimento aleatrio descrito pelo espao de probabilidade (, A, P)
que consiste do espao amostral , de uma -lgebra A, construda a partir de e de
uma funo de valores reais P : A IR.
(K2) No-negatividade. A A, P(A) 0.
(K3) Normalizao Unitria. P() = 1.
(K4) Aditividade Finita. Se A, B so disjuntos, ento P(A B) = P(A) + P(B).
fcil provar (tente!) utilizando induo matemtica que (K4) vlida para qualquer
coleo nita de eventos disjuntos dois a dois, ou seja, se A
i
A
j
= , i = j, com i, j =
1 n, ento P(
n
i=1
A
i
) =

n
i=1
P(A
i
).
Um quinto axioma, embora no tenha signicado em espaos amostrais nitos, foi pro-
posto por Kolmogorov para garantir continuidade da medida de probabilidade.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 18
(K5) Continuidade Monotnica. Se para todo i > 0, A
i+1
A
i
e
i
A
i
= , ento
lim
i
P(A
i
) = 0.
3
Um forma equivalente de (K5) a seguinte, que, conforme visto anteriormente, tambm
uma propriedade da frequncia relativa:
(K5)

-aditividade. Se {A
i
} uma coleo enumervel de eventos disjuntos dois a dois,
ento
P(

i=1
A
i
) =

i=1
P(A
i
).
Teorema 1.8.1: Se P satisfaz (K1)(K4), ento P satisfaz (K5)

se, e somente se, satisfaz


(K5).
Prova: Primeiro, ser provado que (K1)(K5) implicam o axioma da -aditividade (K5)

.
Seja {A
i
} qualquer seqncia enumervel de eventos disjuntos dois a dois, e dena para todo
n
B
n
=
i>n
A
i
,

i=1
A
i
= B
n
(
n
i=1
A
i
).
Claramente, para todo i n, tem-se que A
i
e B
n
so disjuntos. Por (K4), tem-se
P(

i=1
A
i
) = P(B
n
) +
n

i=1
P(A
i
).
Por denio de srie numrica,
lim
n
n

i=1
P(A
i
) =

i=1
P(A
i
).
(K5)

segue-se se se mostrar que lim


n
P(B
n
) = 0. Note que B
n+1
B
n
, e que

n=1
B
n
= .
Ento por (K5), o limite acima zero e K4

verdadeiro.
Agora, ser provado que (K1)(K4), (K5)

implicam o axioma da continuidade monot-


nica (K5). Seja {B
n
} qualquer coleo enumervel de eventos satisfazendo as hipteses do
axioma (K5): B
n+1
B
n
e

n=1
B
n
= . Denindo, A
n
= B
n
B
n+1
observa-se que {A
n
}
uma coleo enumervel de eventos disjuntos dois a dois e que
B
n
=
jn
A
j
.
3
(K5) (ou equivalentemente (K5)

uma idealizao que no aceita por alguns tratamentos subjetivistas


de probabilidade, em especial no aceita por uma escola de estatsticos liderados por deFinetti (1972).
Assumir apenas aditividade nita, embora parea mais plausvel, pode levar a complicaes inesperadas em
teoria estatstica. Portanto, neste livro, prossegue-se sob a suposio que o axioma da continuidade (K5)
vlido.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 19
Ento, por (K5)

,
P(B
n
) = P(
jn
A
j
) =

jn
P(A
j
).
Como por (K5)

j=1
P(A
j
) = P(

j=1
A
j
) 1,
ento
lim
n
P(B
n
) = lim
n

jn
P(A
j
) = 0,
logo (K5) verdadeiro.
Denio 1.8.2: Uma funo que satisfaz (K1)(K5) chamada de uma medida de
probabilidade.
A terna (, A, P) chamada de espao de probabilidade. Intuitivamente quando se
modela uma problema atravs de probabilidade, basicamente, o que se faz especicar cada
uma das componentes da terna acima.
Eventos so os elementos de A, aos quais se pode atribuir probabilidade. Probabilidade
uma funo cujo argumento um conjunto. Portanto, no somente conjuntos, como tambm
as operaes sobre eles, tm uma importncia fundamental em teoria da probabilidade.
Entretanto, preciso que a linguagem de conjuntos seja traduzida para a linguagem de
probabilidade. A Tabela 4, a seguir, exibe algumas dessas tradues. A idia subjacente
que um experimento aleatrio foi realizado e aconteceu algum evento.
Tabela 4. Interpretaes interessantes
conjunto universo espao amostral, evento certo
elemento evento elementar
A conjunto A evento A
conjunto vazio evento impossvel
A
c
ou A complemento de A no ocorreu o evento A
A B A interseco B os eventos A e B ocorreram
A B A unio B os eventos A ou B ocorreram

n
A
n
interseco dos conjuntos A
n
todos os eventos A
n
ocorreram

n
A
n
unio dos conjuntos A
n
ao menos um dos eventos A
n
ocorreu
1.8.1 Exemplos de Medidas de Probabilidade
Probabilidade clssica
P(A) =
n
A
n
,
onde n o nmero de resultados possveis (nmero de elementos do espao amostral) e n
A
o nmero de resultados favorveis a A (nmero de elementos de A) dentre o nmero de
resultados possveis. Baseia-se na idia de resultados igualmente provveis. Neste caso,
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 20
P(A) =
||A||
||||
(1.1)
denido para qualquer subconjunto A de . O fato que 0 ||A|| |||| e que
||A B|| = ||A|| +||B|| ||A B||,
permitem vericar que P satisfaz os axiomas de Kolmogorov.
A denio pode ser aplicada apenas a uma classe limitada de problemas, isto , aqueles
onde possvel contar os elementos do espao amostral, , e do evento A. Nessa contagem
a tcnica usada Anlise Combinatria, que ser estudada com mais detalhes no prximo
captulo.
O exemplo a seguir calcula probabilidades usando (1.1). Adicionalmente, a expresso (1.2)
mostra que, neste caso, existe uma frmula fechada,
log
b
(1 + 1/k),
para o clculo
lim
N
N(k)/N.
Exemplo 1.8.3: Todo nmero real x unicamente representado na expanso b-dica
(Kulisch & Miranker, 1981)
x = d
n
d
n1
. . . d
1
d
0
.d
1
d
2
. . . =

i=n
d
i
b
i
,
onde {+, } o sinal do nmero, b a base da representao, b IN, b > 1, d
i
,
i = n, . . . , , so inteiros positivos tais que 0 d
i
b 1 e d
i
b 2 para innitamente
muitos i.
Sejam a, b, k, n, N inteiros positivos tais que a, b, N 2, k = 1, , b 1, n = 1, , N.
Seja N(k) o nmero de vezes que k aparece como o primeiro dgito de {a
n
}
N
n=1
na base b.
Sabe-se que
lim
N
N(k)/N = log
b
(1 + 1/k). (1.2)
As Tabelas 1 e 2 abaixo apresentam resultados computacionais para k, N(k) e
P(k, N) = N(k)/N,
que a frequncia relativa, onde b = 10, N = 10
2
, 10
3
, 10
4
, 10
5
a = 2, 3.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 21
Tabela 1: k, N(k) e P(k, N) para 2
n
, n = 1, , N e N = 10
2
, 10
3
, 10
4
, 10
5
k N(k) P(k, 10
2
) N(k) P(k, 10
3
) N(k) P(k, 10
4
) N(k) P(k, 10
5
)
1 30 0.30 301 0.301 3010 0.3010 30103 0.30103
2 17 0.17 176 0.176 1761 0.1761 17611 0.17611
3 13 0.13 125 0.125 1249 0.1249 12492 0.12492
4 10 0.10 97 0.097 970 0.0970 9692 0.09692
5 7 0.07 79 0.079 791 0.0791 7919 0.07919
6 7 0.07 69 0.069 670 0.0670 6695 0.06695
7 6 0.06 56 0.056 579 0.0579 5797 0.05797
8 5 0.05 52 0.052 512 0.0512 5116 0.05116
9 6 0.05 45 0.045 458 0.0458 4576 0.04576
Tabela 2: k, N(k) e P(k, N) para 3
n
, n = 1, , N e N = 10
2
, 10
3
, 10
4
, 10
5
k N(k) P(k, 10
2
) N(k) P(k, 10
3
) N(k) P(k, 10
4
) N(k) P(k, 10
5
)
1 28 0.28 300 0.300 3007 0.3007 30101 0.30101
2 19 0.19 177 0.177 1764 0.1764 17611 0.17611
3 12 0.12 123 0.123 1247 0.1247 12492 0.12492
4 8 0.08 98 0.098 968 0.0968 9693 0.09693
5 9 0.09 79 0.079 792 0.0792 7916 0.07916
6 7 0.07 66 0.066 669 0.0669 6697 0.06697
7 7 0.07 59 0.059 582 0.0582 5798 0.05798
8 5 0.05 52 0.052 513 0.0513 5116 0.05116
9 5 0.05 46 0.046 458 0.0458 4576 0.04576
A Tabela 3 exibe valores numricos aproximados para o resultado terico
log
b
(1 + 1/k),
quando a = 2 e N = 10
5
.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 22
Tabela 3: Valores para log
b
(1 + 1/k)
k log
10
(1 + 1/k)
1 0.30103
2 0.17609
3 0.12385
4 0.09691
5 0.07918
6 0.06818
7 0.05690
8 0.05115
9 0.04532
Probabilidade frequentista
P(A) = lim
n
n
A
n
,
onde n
A
o nmero de ocorrncias de A em n ensaios independentes do experimento (teoria
baseada na observao).
O problema quando da aplicao desta denio para calcular a probabilidade de um
evento : quando que n sucientemente grande, isto , quando que o experimento
aleatrio foi realizado um nmero sucientemente grande de vezes, para garantir que a
freqncia relativa do evento A P(A)? A resposta formal a esta pergunta ser respondida
no estudo de teoremas limite.
Exemplo 1.8.4: Simule o lanamento de uma moeda para constatar que quando uma
moeda lanada um nmero grande de vezes as probabilidades de cara e coroa tornam-se
aproximadamente as mesmas.
Probabilidade geomtrica. Considerando o espao amostral constitudo de objetos ge-
omtricos tais como pontos, retas e planos, a obteno de probabilidades, nesse caso,
referenciada na literatura como problemas de probabilidade geomtrica. Portanto, dado um
certo evento A, nesse contexto, de modo geral,
P(A) =
m(A)
m()
,
desde que todas as medidas estejam bem denidas.
Por exemplo, suponha que um ponto seja escolhido aleatoriamente no quadrado 0 x
1, 0 y 1. Pode-se encontrar a probabilidade de que o ponto pertena regio limitada
pelas retas x 1/2 e x+y 1/3, atravs da razo entre a rea desta regio, que 1/2, pela
rea do quadrado 0 x 1, 0 y 1, que 1. Logo a probabilidade igual a 1/2.
Espao amostral enumervel. O nmero de elementos de nito, mas os eventos
elementares no so necessariamente equiprovveis. Seja = {
1
,
2
, . . . ,
n
} um conjunto
nito, e seja P({
i
}) = p
i
, onde p
i
0, i = 1, n e

n
i=1
p
i
= 1, e P(A) =

i
A
P({
i
}).
Neste caso, tambm fcil vericar que P uma medida de probabilidade.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 23
1.8.2 Propriedades de uma Medida de Probabilidade
Teorema 1.8.5: Se P uma medida de probabilidade, ento
(i) P(A
c
) = 1 P(A).
(ii) P() = 0.
(iii) P(A) 1.
(iv) Monotonicidade. Se A B, ento P(A) P(B).
(v) A
1
A
2
P(A
2
A
1
) = P(A
2
) P(A
1
).
(vi) P(A B) = P(A) + P(B) P(A B).
(vii) P(A B) max{P(A), P(B)} min{P(A), P(B)} P(A B).
(viii) Sejam A
1
A
2
. . ., tal que lim
n
(A
n
) =

n=1
A
n
= A, ento lim
n
P(A
n
) =
P(A). (continuidade da probabilidade)
(ix) Sejam A
1
A
2
. . ., tal que lim
n
(A
n
) =

n=1
A
n
= A, ento lim
n
P(A
n
) =
P(A). (continuidade da probabilidade)
Prova:
(i) Segue-se do fato que = A A
c
, (K3), e (K4), pois
1 = P() = P(A) + P(A
c
).
(ii)
c
= , e por (K3) e (K4),
P() = 1 P() = 0.
(iii) 1 = P() = P(A) + P(A
c
) P(A), desde que P(A
c
) 0 por (K2).
(iv) B = A (B A), onde A e B A so disjuntos. Ento (K4) implica que P(B) =
P(A) + P(B A). O resultado segue do fato que P(B A) 0.
(v)
A
1
A
2
A
2
= A
1
(A
2
A
c
1
) P(A
2
) = P(A
1
) + P(A
2
A
c
1
).
Como A
2
A
c
1
= A
2
A
1
, o resultado segue-se.
(vi) A B = A (B A), e A e B A so disjuntos, (K4) implica que P(A B) =
P(A) + P(B A); como B = (A B) (B A), onde A B e B A so disjuntos,
(K4) implica que P(B) = P(A B) + P(B A). Logo,
P(A B) = P(A) + P(B) P(A B).
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 24
(vii) Sem perda de generalidade, sejam
P(A) = min{P(A), P(B)}
e
P(B) = max{P(A), P(B)}.
Como B A B P(B) P(A B)
P(A B) max{P(A), P(B)}.
Obviamente,
max{P(A), P(B)} min{P(A), P(B)}.
De A B A, tem-se que P(A B) P(A). Logo,
min{P(A), P(B)} P(A B).
(viii) Construindo uma sequncia, {B
n
}, de elementos excludentes:
B
1
= A
1
B
2
= A
2
A
c
1

B
n
= A
n
A
c
n1

Tem-se que:

n=1
A
n
= A =

n=1
B
n
e
A
n
=
n
k=1
B
k
.
Logo,
lim
n
P(A
n
) = lim
n
P(
n
k=1
B
k
)
= P(

n=1
B
n
)
= P(

n=1
A
n
)
= P(A)
= P( lim
n
A
n
).
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 25
(ix) Como A
n
A
n+1
, n 1, ento A
c
n
A
c
n+1
. Do item anterior tem-se que
lim
n
P(A
c
n
) = P(

A
c
n
) = P(A
c
).
Logo,
lim
n
P(A
n
) = lim
n
(1 P(A
c
n
))
= 1 lim
n
P(A
c
n
)
= 1 P(

A
c
n
)
= 1 P(A
c
)
= P(A)
= P( lim
n
A
n
).
As propriedades (viii) e (ix) armam que para sequncias monotnicas o limite comuta
com a probabilidade, pois em ambos os casos tem-se que:
lim
n
P(A
n
) = P( lim
n
A
n
).
A notao usada neste captulo a comumente encontrada nos livros de probabilidade.
Entretanto, fora do contexto de probabilidade, possvel, alis quase certo, encontrar notao
distinta. Por exemplo, em Russel & Norvig (1995) tem-se P(A B), P(A B) e P(A)
para P(A B), P(A B), P(A
c
).
Teorema 1.8.6: Probabilidade de Parties. Se {A
i
} uma partio enumervel (ou
nita) de composta de conjuntos em A, ento para todo B A
P(B) =

i
P(B A
i
).
Prova: Como {A
i
} uma partio, segue-se que
B = B = B (
i
A
i
) =
i
(B A
i
).
O resultado segue vem por (K5)

.
Teorema 1.8.7: Desigualdade de Boole. Para n eventos arbitrrios {A
1
, . . . , A
n
}, a
desigualdade de Boole
P(
n
i=1
A
i
)
n

i=1
P(A
i
).
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 26
Prova: Seja n = 2. Logo, P(A
1
A
2
) = P(A
1
) + P(A
2
) P(A
1
A
2
) P(A
1
) + P(A
2
)
porque P(A
1
A
2
) 0. Usar induo para provar para n.
Corolrio 1.8.8: Para n eventos arbitrrios {A
1
, . . . , A
n
},
P(A
i
)
n

i=1
P(A
i
) (n 1).
Prova: Utilizando a Lei de De Morgan e a desigualdade de Boole para os eventos {A
c
1
, . . . , A
c
n
},
P(
n
i=1
A
c
i
) = 1 P(
n
i=1
A
i
)
n

i=1
P(A
c
i
) =
n

i=1
(1 P(A
i
)).
Logo,
P(
i=1
nA
i
)
n

i=1
P(A
i
) (n 1).
O prximo teorema permite calcular de maneira exata a probabilidade P(
n
i=1
A
i
) para
n eventos arbitrrios.
Teorema 1.8.9: Princpio da Incluso-Excluso. Seja I um conjunto genrico de ndi-
ces subconjunto no-vazio qualquer de {1, 2, . . . , n}. Para eventos arbitrrios {A
1
, . . . , A
n
},
P(
n
i=1
A
i
) =

=I{1,...,n}
(1)
||I||+1
P(
iI
A
i
),
onde o somatrio sobre todos os 2
n
1 conjuntos de ndices excluindo apenas o conjunto
vazio.
Prova: falta esta prova
No caso particular de n = 3, o princpio de incluso-excluso arma que
P(A
1
A
2
A
3
) = P(A
1
) + P(A
2
) + P(A
3
)
P(A
1
A
2
) P(A
1
A
3
) P(A
2
A
3
)
P(A
1
A
2
A
3
)
Exemplo 1.8.10: Em um grupo de r pessoas qual a probabilidade de haver pelo menos
duas pessoas que completem aniversrio no mesmo dia, assumindo que a distribuio de
aniversrios uniforme ao longo do ano e desprezando a existncia de anos bissextos?
Soluo: Para determinar esta probabilidade a probabilidade usada a clssica. O nmero
de resultados possveis para os aniversrios de r pessoas 365
r
. O nmero de casos possveis
onde todas as pessoas fazem aniversrio em dias diferentes dado por 365 364
(365 (r 1)). Portanto, o nmero de casos possveis onde pelo menos duas pessoas fazem
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 27
aniversrio no mesmo dia a diferena entre o nmero total de aniversrios possveis e o
nmero de casos onde as pessoas tm aniversrios em datas diferentes, ou seja, igual a
365
r
365 364 (365 (r 1)).
Logo, a probabilidade deste evento :
1
365 364 (365 (r 1))
365
r
.
Para r = 23, essa probabilidade aproximadamente igual a 0.51. E para r = 50, 0.97.
Exemplo 1.8.11: Em uma loteria de N nmeros h um s prmio. Salvador compra n
(1 < n < N) bilhetes para uma s extrao e Slvio compra n bilhetes, um para cada uma
de n extraes. Qual dos dois jogadores tm mais chance de ganhar algum prmio?
Soluo: A probabilidade de Salvador ganhar algum prmio
n
N
. O nmero total de n
extraes possveis N
n
. O nmero de casos onde Slvio no ganha qualquer prmio
(N 1)
n
, logo, o nmero de casos onde Slvio ganha algum prmio igual a N
n
(N 1)
n
.
Portanto, a probabilidade de Slvio ganhar algum prmio 1
(N1)
n
N
n
.
Por induo prova-se que Salvador tem mais chance de ganhar, ou seja,
n
N
> 1
(N1)
n
N
n
,
que equivale a
(N 1)
n
N
n
> 1
n
N
.
Para n = 2:
(N 1)
2
N
2
= 1
2
N
+
1
N
2
> 1
2
N
.
Suponha que para n = k,
(N 1)
k
N
k
> 1
k
N
.
Multiplicando esta expresso por
N1
N
,
(N 1)
k+1
N
k+1
> (
N 1
N
)(1
k
N
) = 1
1
N

k
N
+
k
N
2
> 1
k + 1
N
.
Exemplo 1.8.12: Doze pessoas so divididas em trs grupos de 4. Qual a probabilidade
de duas determinadas dessas pessoas carem no mesmo grupo?
Soluo: O nmero total de divises de doze pessoas em 3 grupos de 4
_
12
4
__
8
4
__
4
4
_
. Para
contar o nmero de casos favorveis ao evento, sabe-se que existem 3 opes de escolha sobre
em qual grupo as duas pessoas determinadas podem car. Das 10 pessoas restantes, tem de
se escolher mais duas para estarem neste grupo, o que pode ser resolvido de
_
10
2
_
maneiras
diferentes. E
_
8
4
__
4
4
_
so maneiras diferentes de dividir as outras 8 pessoas nos dois grupos
restantes. Portanto, a probabilidade de duas determinadas pessoas carem no mesmo grupo
:
3
_
10
2
__
8
4
__
4
4
_
_
12
4
__
8
4
__
4
4
_ =
3
11
.
Campos & Rgo
1.8. AXIOMAS DE KOLMOGOROV 28
Exemplo 1.8.13: Suponha que numa sala esto n mes cada uma com um lho. Suponha
que duplas sejam formadas aleatoriamente, onde cada dupla contm uma me e um lho.
Qual a probabilidade de que pelo menos uma me forme uma dupla com seu prprio lho?
Soluo: Seja A
i
o evento que a i-sima me forma dupla com seu lho. O objetivo
determinar
P(
n
i=1
A
i
).
Calculando esta probabilidade utilizando a frmula da incluso-excluso. Note que:
P(A
i
) =
(n 1)!
n!
=
1
n
para todo i {1, 2, . . . , n}
P(A
i
A
j
) =
(n 2)!
n!
=
1
n(n 1)
para i = j
e em geral, para um grupo I {1, 2, . . . , n} de mes,
P(
iI
A
i
) =
(n ||I||)!
n!
.
Como existem
_
n
||I||
_
grupos de mes com cardinalidade ||I||,
P(
n
i=1
A
i
) =
n

i=1
(1)
i+1
_
n
i
_
(n i)!
n!
=
n

i=1
(1)
i+1
1
i!
Note que quando n , esta probabilidade tende a 1
1
e
.
Exemplo 1.8.14: Demonstre que se P(A
i
) = 1 para i = 1, 2, . . ., ento P(

i=1
A
i
) = 1.
Soluo: Como P(A
i
) = 1, tem-se que P(A
c
i
) = 1 P(A
i
) = 0. Logo, pela desigualdade
de Boole, P(

i=1
A
c
i
)

i=1
P(A
c
i
) = 0. Portanto, P(

i=1
A
c
i
) = 0 e pela Lei de DeMorgan,

i=1
A
i
= (

i=1
A
c
i
)
c
, tem-se que P(

i=1
A
i
) = 1 P(

i=1
A
c
i
) = 1.
Exemplo 1.8.15: Demonstre: se A
1
, A
2
, . . . e B
1
, B
2
, . . . so eventos do mesmo espao de
probabilidade tais que P(A
n
) 1 e P(B
n
) p, ento P(A
n
B
n
) p.
Soluo: Note que
P(A
n
B
n
) = 1 P((A
n
B
n
)
c
) = 1 P(A
c
n
B
c
n
)
1 P(A
c
n
) P(B
c
n
) = P(A
n
) + P(B
n
) 1. (1.1)
Como P(A
n
) + P(B
n
) 1 p, tem-se que liminf P(A
n
B
n
) p. Por outro lado, como
P(A
n
B
n
) P(B
n
) e P(B
n
) p, tem-se que limsup P(A
n
B
n
) p. Portanto, limP(A
n

B
n
) = p.
Campos & Rgo
1.9. APRENDENDO UM POUCO MAIS 29
1.9 Aprendendo um pouco mais
Teorema 1.9.1: Se (A
n
) uma sequncia de suconjuntos de um conjunto tal que A
1

A
2
A
3
. . ., ento limA
n
=

n=1
A
n
.
Teorema 1.9.2: Se (A
n
) uma sequncia de suconjuntos de um conjunto tal que A
1

A
2
A
3
. . ., ento limA
n
=

n=1
A
n
.
Teorema 1.9.3: O conjunto dos nmeros reais no-enumarvel.
Prova: falta esta prova
Se o espao amostral for nito, toda lgebra uma -lgebra, pois s existe um nmero
nito de eventos distintos. Se o espao amostral for innito, existem lgebras que no so
-lgebras, como mostra o exemplo seguinte.
Exemplo 1.9.4: Um conjunto co-nito se seu complementar for nito. A coleo de
conjuntos de nmeros reais nitos e co-nitos uma lgebra que no uma -lgebra.
Lema 1.9.5: Se A uma -lgebra, ento A
Prova: Como A no vazio, seja A um seu elemento qualquer. Pela segunda propriedade
de lgebras, tem-se que A
c
A, e pela terceira, = A A
c
A.
Teorema 1.9.6: Sejam A
1
e A
2
lgebras (-lgebras) de subconjuntos de e seja A =
A
1
A
2
a coleo de subconjuntos comuns s duas lgebras. Ento, A ma lgebra (-
lgebra).
Prova: Como A
1
e A
2
so lgebras, ambos contm . Ento, A. Se A A, ento A
est em ambos A
1
e A
2
. Logo, A
c
est em ambos A
1
e A
2
, e portanto na sua interseco A.
Se A, B A, ento eles esto em ambos A
1
e A
2
. Consequentemente, AB est em ambos
A
1
e A
2
e, portanto, em A. Como A satisfaz as trs condies da denio de lgebra de
eventos, A uma lgebra de eventos. A prova no caso de -lgebras anloga.
Corolrio 1.9.7: Existe uma menor (no sentido de incluso) lgebra (-lgebra) contendo
qualquer famlia dada de subconjuntos de .
Prova: Seja C uma coleo qualquer de subconjuntos de . Dena A(C) como sendo o
conjunto que igual a interseco de todas as lgebras de eventos que contm C, isto :
A(C) =

AC:A uma lgebra de eventos


A.
Pelo Teorema 1.9.6, A(C) uma lgebra de eventos, e consequentemente a menor lgebra
de eventos contendo C. A prova no caso de -lgebras anloga.
Deste modo, pode-se denir a seguinte -lgebra de subconjuntos dos reais.
Campos & Rgo
1.10. EXERCCIOS 30
Exemplo 1.9.8: A -lgebra de Borel B de subconjuntos reais , por denio, a menor
-lgebra contendo todos os intervalos e a -lgebra usual quando se lida com quantidades
reais ou vetoriais. Em particular, tem-se que unies enumerveis de intervalos (por exemplo,
o conjunto dos nmeros racionais), seus complementos (por exemplo, o conjunto dos nmeros
irracionais), e muito mais esto em B. Para todos os ns prticos, pode-se considerar que B
contm todos os subconjuntos de reais que consegue-se descrever.
1.10 Exerccios
1. (a) Uma caixa com 6 chips contm 2 defeituosos. Descreva um espao amostral para
cada uma das situaes abaixo:
(a) Os chips so examinados um a um at que um defeituosos seja encontrado.
(b) Os chips so examinados um a um at que todos os defeituosos sejam encon-
trados.
(b) Generalize o problema. Responda s mesmas questes anteriores, supondo que se
tem N chips na caixa, dos quais n < N so defeituosos.
2. Coloque V ou F nas sentenas abaixo:
(a) A = P(A) = 0. ( )
(b) P(A) = 0 A = . ( )
(c) A = P(A) = 0. ( )
(d) A B P(A) P(B). ( )
(e) A B P(A) P(B). ( )
(f) A B P(A) P(B). ( )
(g) A e B excludentes P(A B) = P(A) + P(B). ( )
(h) A e B excludentes P(A B) = P(A)P(B). ( )
3. Professor Lenidas est tentando calcular a probabilidade p = P(A) do evento A, e
determinou que ela uma raiz do seguinte polinmio de grau cinco:
(p 3)(p 3

1)(p + 3

1)(p + 0.3)(p 0.3) = 0.


Baseado nesta fato, qual o valor de p?
4. Se = {a, b, c}, a lgebra A o conjunto das partes de e a medida de probabilidade
P parcialmente denida por
P({a, b}) = 0.5, P({b, c}) = 0.8, P({a, c}) = 0.7,
ento complete a especicao de P para todos os eventos em A.
5. Se {A
i
} for uma partio enumervel de e P(A
i
) = ab
i
, i 1, quais as condies
que a e b devem satisfazer para que P seja uma medida de probabilidade?
Campos & Rgo
1.10. EXERCCIOS 31
6. As seguintes questes no esto relacionadas umas com as outras.
(a) Se I
A
I
B
for identicamente igual a zero, o que dizer a respeito da relao entre A
e B?
(b) Se A B
c
= B A
c
, o que dizer a respeito da relao entre A e B?
(c) Se I
2
A
+ I
2
B
for identicamente igual a 1, o que concluir sobre A e B?
7. Determine se cada uma das armaes a seguir so verdadeiras ou falsas. Se a relao
for falsa, apresente um contra-exemplo. Se for verdadeira, prove-a.
(a) Se x A e A B, ento x B.
(b) Se A B e B C, ento A C.
(c) Se A B e B C, ento A C.
(d) Se A B e B C, ento A C.
(e) Se x A e A B, ento x / B.
(f) Se A B e x / B, ento x / A.
8. Descreva um espao amostral para cada um dos experimentos abaixo.
(a) Strings de dgitos binrios so geradas at que pela primeira vez o mesmo resultado
aparea duas vezes em sucesso.
(b) Strings de dgitos binrios so geradas at que o dgito 1 aparea pela primeira
vez.
(c) Strings de 3 dgitos binrios so geradas. Observe as sequncias de zeros e uns.
(d) Conte o nmero de zeros em uma string de dgitos binrios com n dgitos.
9. Mostre que P(E F) P(E) P(E F) P(E) + P(F).
10. Um ponto escolhido ao acaso sobre um quadrado unitrio. Determine a probabilidade
de que o ponto esteja no tringulo limitado por x = 0, y = 0 e x + y = 1.
11. Um ponto escolhido ao acaso sobre um disco unitrio. Determine a probabilidade de
que o ponto esteja no setor angular de 0 a /4.
12. Suponha que A, B e C sejam eventos tais que P(A) = P(B) = P(C) = 1/4, P(AB) =
P(B C) = 0 e P(A C) = 1/8. Calcule a probabilidade de que ao menos um dos
eventos A, B ou C ocorra.
13. Suponha a declarao, if B then s
1
else s
2
, onde B um evento aleatrio, e suponha
que um experimento aleatrio consiste em observar duas execues desta declarao.
Sejam os eventos
E
1
= {pelo menos uma execuo de s
1
}
e
E
2
= {a declarao s
2
executada pela primeira vez}.
Campos & Rgo
1.10. EXERCCIOS 32
(a) Exiba um espao amostral para o experimento.
(b) Calcule P(E
1
) e P(E
2
), em termos de P(B).
14. Distribuio de Nmeros Primos
(a) Considere os intervalos A
k
= [10k, 10(k + 1)), k = 0 , 9. Sejam, n o total dos
primos em [0,100) e n
k
a freqncia deles em cada A
k
. Seja p
k
=
n
k
n
. Calcule p
k
e faa um grco com os pontos (k, p
k
), para k = 0 , 9.
(b) Repita todo o problema anterior com A
k
= [100k, 100(k + 1)), k = 0 , 9, e n o
total dos primos em [0,1000).
(c) Agora com A
k
= [1000k, 1000(k +1)), k = 0 , 9, sendo n o total dos primos em
[0,10000).
(d) Os resultados que voce obteve, empiricamente, aceitam ou refutam a seguinte
armao: nmeros primos ocorrem menos frequentemente entre inteiros maiores
que entre inteiros menores.
(e) Seja (x) o nmero de primos menores que x IR, x > 0. De acordo com seus
clculos, qual armao abaixo voc aceita como sendo verdadeira?
(x) log
2
(log
2
x) + 1,
(x) log
2
(log
2
(x) + 1,
onde em (a) x = 100, em (b) x = 1000 e em (c) x = 10000.
15. Sejam A
1
, A
2
, , B
1
, B
2
, eventos aleatrios denidos no mesmo espao de proba-
bilidade (, A, P). Mostre que:
(a) P(
n
k=1
A
k
) 1

n
k=1
P(A
c
k
).
(b) Se P(A
k
) 1 para k = 1, , n, ento P(
n
k=1
A
k
) 1 n.
(c) Se P(A
n
) 1 e P(B
n
) p, quando n , ento P(A
n
B
n
) p.
(d) Se P(A
n
) = 0 para n = 1, 2, ento P(

n=1
A
n
) = 0.
(e) Se P(A
n
) = 1 para n = 1, 2, ento P(

n=1
A
n
) = 1.
16. Para todo conjunto unidimensional A para o qual a integral existe seja P(A) =
_
A
f(x)dx, onde f(x) = 6x(1 x), 0 < x < 1 e zero para x (0, 1). Se A
1
=
{x |
1
4
< x <
3
4
} e A
2
= {x | x =
1
2
}, calcule P(A
1
), P(A
2
), P(A
1
A
2
), P(A
1
A
2
).
17. Seja a probabilidade do evento A,
P(A) =
_
A
e
x
dx, 0 < x < ,
e seja A
k
= {x | 2 1/k < x 3}, k = 1, 2, . Mostre que lim
k
P(A
k
) =
P(lim
k
A
k
). Seja agora A
k
= {x | 1/k 2 < x 3}, k = 1, 2, . Mostre que
lim
k
P(A
k
) = P(lim
k
A
k
).
Campos & Rgo
1.10. EXERCCIOS 33
18. Um poliedro com k faces, k > 3, rotuladas f
1
, f
2
, , f
k
atirado aleatoriamente em
um plano, sendo observada a face tangente ao mesmo.
(a) Descreva o espao amostral.
(b) Seja o evento A, a face voltada para baixo no excede o nmero k/2. Descreva A.
(c) Calcule P(A) para um (c1) icosaedro, (c2) dodecaedro e (c3) octaedro.
19. Uma coleo de 100 programas foi checada com respeito a erros de sintaxe, S, erros
de entrada e sada, I, e outros tipos de erros, E. Os resultados obtidos foram: 20, S;
10, I; 5, E; 6, S I; 3, S E; 2, I E; 1, S I E. Um programa selecionado
aleatoriamente. Calcule a probabilidade de que este apresente
(a) S ou I;
(b) ao menos um tipo de erro.
20. Dois dados so lanados. Considere os eventos
A = {a soma dos pontos sobre as duas faces um nmero par},
B = {1 aparece pelo menos sobre um dos dados}.
Descreva os eventos: (a) A B; (b) A B; (c) A B.
21. Um alvo consiste de dez crculos concntricos com raios r
k
, k = 1, 2, . . . 10, onde r
1
<
r
2
< . . . r
10
. O evento A
k
indica um acerto no crculo de raio k. Descreva em palavras
os eventos B =
6
k=1
A
k
e C =
10
k=5
A
k
.
22. Um experimento consiste em se retirar 3 impressoras de um lote e test-las de acordo
com alguma caracterstica de interesse. Assinale D, para impressora defeituosa e B,
para perfeita. Sejam os eventos:
A
1
= {a 1a. impressora foi defeituosa},
A
2
= {a 2a. impressora foi defeituosa},
A
3
= {a 3a. impressora foi defeituosa}.
(a) Descreva o espao amostral.
(b) Liste todos os elementos de cada um dos seguintes eventos: A
1
, A
2
, A
1
A
2
,
A
2
A
3
, A
1
A
2
A
3
, A
1
A
2
A
3
.
(c) Explique, em palavras, o signicado dos eventos acima.
23. Seja A o evento pelo menos um entre trs itens checados defeituoso, e B o evento
todos os trs itens so bons. Descreva os eventos: (a) AB; (b) AB; (c) A; (d) B.
24. H trs edies diferentes cada uma contendo pelo menos trs volumes. Os eventos A,
B e C, respectivamente indicam que pelo menos um livro escolhido da primeira, da
segunda e da terceira edio. Sejam
Campos & Rgo
1.10. EXERCCIOS 34
A
s
= {s volumes so escolhidos da primeira edio},
B
k
= {k volumes so escolhidos da segunda edio}.
Qual o signicado dos eventos: (a) ABC; (b) ABC; (c) AB
3
; (d) A
2
B
2
;
(e) (A
1
B
3
) (A
3
B
1
)?
25. Um nmero escolhido do conjunto dos nmeros naturais. Sejam
A = {o nmero escolhido divisvel por 5} e B = {o nmero escolhido termina por 0}.
Qual o signicado dos eventos A B e A B?
26. Sejam A, B e C eventos e A B. Determine: (a) A B; (b) A B; (c) A B C;
(d) A B C.
27. Mostre que os seguintes eventos formam uma partio do espao amostral : A, AB
e A B.
28. Encontre uma condio sob a qual os eventos AB, AB e AB sejam mutuamente
exclusivos.
29. Suponha que uma instruo leva pelo menos 9 segundos para ser transmitida, proces-
sada e a resposta exibida no terminal. O experimento aleatrio consiste em mensurar
o tempo decorrido da operao completa. Descreva o espao amostral.
30. Uma moeda honesta lanada at que aparea o mesmo resultados duas vezes seguidas.
(a) Descreva o espao amostral.
(b) Encontre a probabilidade de que o experimento termine antes de 6 lanamentos.
(c) Encontre a probabilidade de que seja necessrio um nmero par de lanamentos
para que o experimento termine.
Campos & Rgo
Captulo 2
Espaos Amostrais Finitos
2.1 Introduo
No captulo anterior foi visto que se = {
1
,
2
, . . . ,
n
} um conjunto nito, ento para
determinar a probabilidade de qualquer evento A suciente especicar a probabilidade de
cada evento simples ou elementar {
i
}, ou seja P({
i
}) = p
i
. fcil ver que os axiomas de
Kolmogorov implicam que p
i
0, i 1 e

n
i=1
p
i
= 1, e P(A) =

i
A
P({
i
}).
Para se determinar as probabilidades dos eventos simples hipteses adicionais so neces-
srias. Por exemplo, se em = {w
1
, w
2
, w
3
}, {w
1
} for 3 vezes mais provvel que {w
2
, w
3
},
e {w
2
} for igualmente provvel a {w
3
}, tem-se que p
1
= 3(p
2
+ p
3
), p
2
= p
3
. Logo, como
p
1
+ p
2
+ p
3
= 1 ento p
3
= p
2
=
1
8
, e p
1
=
3
4
.
De acordo com a denio clssica de probabilidade onde o espao amostral nito e
os possveis resultados do experimento so equiprovveis, a probabilidade de qualquer evento
A A proporcional a sua cardinalidade, isto ,
P(A) =
||A||
||||
.
Portanto, fundamental contar a quantidade de elementos do evento de interesse quanto
do espao amostral.
Neste captulo sero estudados mtodos de contagem, tambm conhecidos como mtodos
de anlise combinatria. Embora conjuntos com poucos elementos possam ser contados
exaustivamente (fora-bruta), conjuntos com tamanho moderado podem ser difceis de contar
sem a utilizao dessas tcnicas matemticas.
2.2 Regra da Adio
Suponha que um procedimento, designado por 1, possa ser realizado de n
1
maneiras. Admita-
se que um segundo procedimento, designado por 2, possa ser realizado de n
2
maneiras. Alm
disso, suponha que no seja possvel que ambos os procedimentos 1 e 2 sejam realizados em
conjunto. Ento, o nmero de maneiras pelas quais pode-se realizar ou 1 ou 2 n
1
+ n
2
.
35
2.3. REGRA DA MULTIPLICAO 36
Esta regra tambm pode ser estendida da seguinte maneira: se existirem k procedimentos
e o i-simo procedimento puder ser realizado de n
i
maneiras, i = 1, 2, . . . , k, ento, o nmero
de maneiras pelas quais pode-se realizar ou o procedimento 1, ou o procedimento 2, . . ., ou o
procedimento k, dado por n
1
+n
2
+. . . +n
k
, supondo que dois quaisquer deles no possam
ser realizados conjuntamente.
Exemplo 2.2.1: Seja o problema de escolher um caminho entre duas cidades A e B
dentre trs percurssos pelo interior e dois pelo litoral. Portanto existem 3 + 2 = 5 caminhos
disponveis para a viagem.
2.3 Regra da Multiplicao
Suponha que um procedimento designado por 1 possa ser executado de n
1
maneiras. Admita-
se que um segundo procedimento, designado por 2, possa ser executado de n
2
maneiras.
Suponha tambm que cada maneira de executar 1 possa ser seguida por qualquer maneira
para executar 2. Ento, o procedimento formado por 1 seguido de 2 poder ser executado
de n
1
n
2
maneiras.
Obviamente esta regra pode ser estendida a qualquer nmero nito de procedimentos. Se
existirem k procedimentos e o i-simo procedimento puder ser executado de n
i
maneiras, i =
1, 2, . . . , k, ento o procedimento formado por 1, seguido por 2,. . . , seguido pelo procedimento
k, poder ser executado de n
1
n
2
n
k
maneiras.
Exemplo 2.3.1: Quantos divisores inteiros e positivos possui o nmero 360? Quantos
desses divisores so pares? Quantos so mpares? Quantos so quadrados perfeitos?
Soluo: 360 = 2
3
3
2
5. Os divisores inteiros e positivos de 360 so os nmeros da forma
2
a
3
b
5
c
, onde a {0, 1, 2, 3}, b {0, 1, 2}, e c {0, 1}. Portanto, existem 4 3 2 = 24
maneiras de escolher os expoentes a, b, c. Logo h 24 divisores.
Para o divisor ser par, a no pode ser zero. Ento, existem 332 = 18 divisores pares.
Por outro lado, para o divisor ser mpar, a tem que ser zero. Logo, existem 1 3 2 = 6
divisores mpares. Por m para o divisor ser quadrado perfeito os expoentes tm que ser
pares. Logo, existem 2 2 1 = 4 divisores quadrados perfeitos.
Exemplo 2.3.2: De quantos modos o nmero 720 pode ser decomposto em um produto
de dois inteiros positivos? E o nmero 144?
Soluo: 720 = 2
4
3
2
5. Os divisores inteiros e positivos de 720 so os nmeros da
forma: 2
a
3
b
5
c
, onde a {0, 1, 2, 3, 4}, b {0, 1, 2}, e c {0, 1}. Portanto, existem
5 3 2 = 30 maneiras de escolher os expoentes a, b, c. Logo h 30 divisores. Observe que
como 720 no um quadrado perfeito, para cada divisor x de 720 existe um outro divisor
y = x de 720 tal que x y = 720. Portanto, cada produto contm dois divisores diferentes
de 720. Como existem 30 divisores, existem 15 produtos diferentes.
144 = 2
4
3
2
. Seguindo o raciocnio anterior, tem-se 5 3 = 15 divisores de 144. Note
que 144 = 12
2
e este constitui um produto de inteiros positivos que igual a 144. Os demais
produtos contm dois inteiros positivos diferentes que so divisores de 144. Como existem
14 divisores de 144 diferentes de 12, ento existem 7 produtos envolvendo estes divisores.
Logo, tem-se um total de 8 produtos diferentes.
Campos & Rgo
2.4. AMOSTRAGEM OU ESCOLHAS COM OU SEM REPOSIO 37
Exemplo 2.3.3: O conjunto A possui 4 elementos e, o conjunto B, 7. Quantas funes
f : A B existem? Quantas delas so injetoras?
Soluo: Para cada elemento de A tem-se 7 possveis valores diferentes. Como A contm 4
elementos, existem 7 7 7 7 = 7
4
funes diferentes. Recorde que uma funo injetora
se f(a) = f(b) sempre que a = b. Portanto, o mesmo elemento de B no pode ser imagem
de dois elementos de A, logo existem 7 6 5 4 = 840 funes injetoras.
Exemplo 2.3.4: Em uma banca h 5 exemplares iguais da Veja, 6 exemplares iguais da
poca e 4 exemplares iguais da Isto . Quantas colees no-vazias de revistas dessa banca
podem ser formadas?
Soluo: Note que cada coleo de revistas vai ser composta por a revistas Veja, b revistas
poca e c revistas Isto , onde 0 a 5, 0 b 6, 0 c 4, e pelo menos 1 de a, b,
ou c diferente de zero. Ento, tem-se 6 7 5 1 = 210 1 = 209 diferentes colees
no-vazias dessas revistas.
2.4 Amostragem ou Escolhas com ou sem Reposio
Dado um conjunto com n elementos distintos, o nmero,
n,r
, de maneiras de selecionar
uma sequncia distinta de comprimento r escolhida desse conjunto com repetidas selees
do mesmo elemento sendo permitidas, amostragem com reposio, dada por n
r
, uma
vez que o mesmo procedimento repetido r vezes e cada procedimento tem n maneiras de
ser executado.
Exemplo 2.4.1: Nmero de Sequncias Binrias ou Subconjuntos. O nmero
de sequncias binrias de comprimento r igual a 2
r
pois neste caso tem-se que para cada
posio i da sequncia, n
i
= 2. O nmero de subconjuntos de um dado conjunto A, ||A|| = r,
pode ser determinado enumerando A = {a
1
, a
2
, a
3
, . . . , a
r
} e descrevendo cada subconjunto
B de A por uma sequncia binria
(b
1
, b
2
, . . . , b
r
),
onde b
i
= 1 se a
i
B e b
i
= 0, caso contrrio. Como existem 2
r
destas sequncias, ento
existem 2
r
subconjuntos de um conjunto de r elementos. Portanto, se ||A|| = r, o conjunto
das partes de A, possui 2
r
elementos, o que explica a notao exponencial do conjunto das
partes.
Dado um conjunto com n elementos distintos, o nmero (n)
r
de maneiras de selecionar
uma sequncia distinta de comprimento r escolhida desse conjunto com repetidas selees
do mesmo elemento no sendo permitidas, amostragem sem reposio, dada por
A
r
n
= (n)
r
= n(n 1) (n r + 1) =
r1

i=0
(n i),
desde que no primeiro procedimento (escolha do primeiro elemento da sequncia) tem-se n
maneiras de execut-lo, no segundo procedimento (escolha do segundo elemento da sequn-
cia) tem-se n 1 maneiras de execut-lo, . . ., e no r-simo e ltimo procedimento (escolha
Campos & Rgo
2.5. PERMUTAES E ARRANJOS 38
do r-simo elemento da sequncia) tem-se nr +1 maneiras de execut-lo. Este nmero de
sequncias tambm chamado na literatura de arranjo quando tem-se n elementos distintos
e deseja-se escolher r deles onde a ordem de escolha importante.
2.5 Permutaes e Arranjos
Um caso particular de amostragem sem reposio quando o objetivo saber o nmero de
permutaes de um conjunto de n elementos distintos. Neste caso, r = n, e o nmero de
permutaes dado por
n! = (n)
n
= n(n 1) 1,
onde n! conhecida como funo fatorial.
Propriedades da funo fatorial incluem:
0! = 1! = 1
e
n! = n(n 1)!.
Exemplo 2.5.1: Se A um conjunto de n elementos, quantas so as funes f : A A
bijetoras?
Soluo: Tem-se que garantir que cada elemento de A tem uma imagem diferente. Como A
nito e tem n elementos, f tambm sobrejetora e, portanto, bijetora. Ento, o primeiro
elemento de A tem n opes, o segundo n 1 opes, at que o ltimo elemento de A tem
somente uma opo disponvel. Portanto, existem n! funes bijetoras f : A A.
Exemplo 2.5.2: De quantos modos possvel colocar r rapazes e m moas em la de
modo que as moas permaneam juntas?
Soluo: Primeiro tem-se r + 1 opes de se escolher o lugar das moas. Em seguida, r!
maneiras de se escolher a posio dos rapazes entre si, e m! maneiras de se escolher a posio
das moas entre si. Portanto, tem-se (r + 1)r!m! modos diferentes de escolha.
Exemplo 2.5.3: Quantas so as permutaes simples dos nmeros 1, 2, . . . , 10 nas quais
o elemento que ocupa o lugar de ordem k, da esquerda para a direita, sempre maior que
k 3?
Soluo: Inicialmente escolhem-se os nmeros da direita para esquerda. Observe que o
nmero no lugar de ordem 10, tem que ser maior que 7, portanto existem 3 opes. O
nmero no lugar de ordem 9, tem que ser maior que 6, existem, portanto, 3 opes visto
que um dos nameros maiores que 6 j foi utilizado na ltima posio. De maneira similar
pode-se ver que existem 3 opes para os nmeros que ocupam do terceiro ao oitavo lugar.
O nmero no lugar de ordem 2, tem somente 2 opes, pois oito nmeros j foram escolhidos
anteriormente. Finalmente, resta apenas um nmero para o lugar de ordem n. Portanto,
existem 2 3
8
permutaes deste tipo.
Exemplo 2.5.4: Com oito bandeiras diferentes, quantos sinais feitos com trs bandeiras
diferentes se podem obter?
Soluo: Neste caso a ordem acarreta diferena e por isso tem-se (8)
3
= 336 sinais.
Campos & Rgo
2.6. COMBINAES 39
2.6 Combinaes
O nmero de conjuntos, ou colees no ordenadas, de tamanho r escolhidas de um conjunto
universo de tamanho n, onde, como apropriado para conjuntos, no permitida a duplicao
de elementos, dado pelo coeciente binomial:
_
n
r
_
=
(n)
r
r!
=
A
r
n
r!
=
n!
(n r)!r!
.
Para vericar isto, note que o nmero de colees ordenadas de tamanho r sem repetio
(n)
r
. Como os elementos de cada sequncia de comprimento r so distintos, o nmero de
permutaes de cada seqncia r!. Porm, utilizando a regra da multiplicao, o proce-
dimento de se escolher uma coleo ordenada de r termos sem repetio igual a primeiro
escolher uma coleo no-ordenada de r termos sem repetio e depois escolher uma ordem
para esta coleo no-ordenada, ou seja,
A
r
n
= (n)
r
=
_
n
r
_
r!,
de onde segue o resultado.
O coeciente binomial tem as seguintes propriedades:
_
n
r
_
=
_
n
n r
_
,
_
n
0
_
= 1,
_
n
1
_
= n,
_
n
r
_
= 0, se n < r.
O coeciente binomial tambm d o nmero de subconjuntos de tamanho r que podem
ser formados de um conjunto de n elementos. Como visto que o nmero total de subconjuntos
de um conjunto de tamanho n 2
n
, ento
2
n
=
n

r=0
_
n
r
_
.
Os nmeros
_
n
r
_
so chamados de coecientes binomiais porque eles aparecem como
coecientes na expresso binomial (a + b)
n
. Se n for um inteiro positivo, (a + b)
n
=
(a + b)(a + b) (a + b). Quando a multiplicao tiver sido realizada, cada termo ser
formado de k elementos de a e de (n k) elementos de b, para k = 0, 1, 2, . . . , n. Mas,
quantos termos da forma a
k
b
nk
existiro? Simplesmente contado o nmero de maneiras
possveis de escolher k dentre os n elementos a, deixando de lado a ordem (onde o i-simo
Campos & Rgo
2.6. COMBINAES 40
elemento a corresponde ao i-simo fator do produto acima). Mas isso justamente dado por
_
n
k
_
. Da obtm-se o que conhecido como o Teorema Binomial:
(a + b)
n
=
n

k=0
_
n
k
_
a
k
b
nk
.
Exemplo 2.6.1: Dentre oito pessoas, quantas comisses de trs membros podem ser
escolhidas, desde que duas comisses sejam a mesma comisso se forem constitudas pelas
mesmas pessoas (no se levando em conta a ordem em que sejam escolhidas)?
Soluo: A resposta dada por
_
8
3
_
= 56 comisses possveis.
Exemplo 2.6.2: Um grupo de oito pessoas formado de cinco homens e trs mulhe-
res. Quantas comisses de trs pessoas podem ser constitudas, incluindo exatamente dois
homens?
Soluo: Aqui deve-se escolher dois homens (dentre cinco) e duas mulheres (dentre trs).
Portanto, o nmero procurado
_
5
2
__
3
1
_
= 30 comisses.
Exemplo 2.6.3: Quantas sequncias binrias de comprimento n contm no mximo trs
dgitos 1?
Soluo: Tem-se quatro casos possveis: todas as sequncias que no contm 1, todas as
que contm apenas um 1, todas as que contm dois dgitos 1 e todas as que contm trs
dgitos 1. Para 0 r n, existem exatamente
_
n
r
_
sequncias binrias com r nmeros 1.
Portanto, pela regra da adio existem
_
n
0
_
+
_
n
1
_
+
_
n
2
_
+
_
n
3
_
sequncias binrias de comprimento n contendo no mximo trs nmeros 1.
Exemplo 2.6.4: Quantas sequncias de cara e coroa de comprimento n contm pelo menos
1 cara?
Soluo: Neste caso, apenas uma sequncia no contm qualquer cara (a sequncia que
contm apenas coroa). Como o nmero total de sequncias de cara e coroa de comprimento
n igual a 2
n
, ento 2
n
1 sequncias de comprimento n contm pelo menos uma cara.
Exemplo 2.6.5: Determine o coeciente de x
3
no desenvolvimento de (x
4

1
x
)
7
.
Soluo: O termo genrico do desenvolvimento
_
7
k
_
(x
4
)
k
(
1
x
)
7k
= (1)
7k
_
7
k
_
x
5k7
.
Portanto, tem-se o termo x
3
se 5k 7 = 3, o que implica que k = 2. Logo, o coeciente de
x
3
(1)
5
_
7
2
_
= 21.
Campos & Rgo
2.7. APLICAES EM GRAFOS 41
2.7 Aplicaes em Grafos
Modelos matemticos de conectividade em sistemas de redes so baseados em grafos. Estes
modelos permitem que questes como a conectividade de todos os elementos de uma rede, a
robustez dessa conectividade a falhas em conexes entre pares de elementos e o comprimento
de caminhos entre pares de elementos sejam estudadas. A seguir, sero vistas determinadas
caractersticas de grafos luz das tcnicas de contagem.
2.7.1 Grafos No Direcionados
Denio 2.7.1: Um grafos no direcionado G = (V, E) denido por um conjunto V de
elementos chamados ns ou vrtices e um conjunto E {{u, v} : u, v V }} de pares no
ordenados de ns que so chamados de bordas ou arestas.
Um grafo no direcionado que contm n vrtices ser denotado por G
n
.
A aresta {u, v} vista como conectando os vrtices u e v os quais so chamados de
adjacentes. O caso especial da aresta {u, u} chamado de lao. Note que o grafo chamado
de no direcionado porque se u adjacente a v, ento v adjacente a u.
Nesse breve estudo de grafos, a no ser que seja mencionado o contrrio, os grafos no
tm laos.
Exemplo 2.7.2: Nmero de grafos no direcionados com n vrtices. Qual o nmero

n
de grafos no direcionados com um conjunto V de n vrtices? Qual o nmero
n,m
de
grafos no direcionados com um conjunto V de n de vrtices e um conjunto E de m arestas?
Soluo: Note que o nmero de arestas o nmero possvel de maneiras de escolher pares de
de vrtices de V (a ordem dos vrtices no relevante pois o grafo no direcionado). Ento,
tem-se
_
n
2
_
possveis arestas em um grafo. Cada grafo corresponde a um subconjunto do
conjunto de todas as arestas. Como existem 2
r
subconjuntos de um conjunto de r elementos,
ento existem

n
= 2
(
n
2
)
grafos no direcionados com n vrtices.
Como existem
_
n
2
_
possveis arestas, ento existem

n,m
=
__
n
2
_
m
_
grafos no direcionados com n vrtices e m arestas.
2.7.2 Grafos Direcionados
Enquanto algumas conexes so simtricas, outras no so. Por exemplo, seja a relao
social u pai de v, ou u orientador de v. Evidentemente essas relaes no so simtricas,
e para represent-las necessrio o conceito de grafos direcionados.
Campos & Rgo
2.8. CONTAGEM MULTINOMIAL OU PERMUTAO COM ELEMENTOS
REPETIDOS 42
Denio 2.7.3: Um grafo direcionado G = (V, E) um conjunto V de vrtices e um
conjunto E {(u, v) : u, v V } = V V de pares ordenados de vrtices que denem
arestas direcionadas que conectam u a v, mas no necessariamente o contrrio.
Exemplo 2.7.4: Quantos grafos direcionados sem laos existem com um conjunto V de
n vrtices? Qual o nmero de grafos direcionados com um conjunto V de n vrtices e um
conjunto E de m arestas?
Soluo. Como existem n(n1) pares ordenados de vrtices sem repetio, ento o nmero
total de possveis arestas do grafo n(n 1). Cada grafo corresponde a um subconjunto do
conjunto de todas as arestas. Ento, existem

n
= 2
n(n1)
grafos direcionados com n vrtices.
Como existem n(n 1) possveis arestas, ento existem
_
n(n 1)
m
_
grafos direcionados com n vrtices e m arestas.
2.8 Contagem Multinomial ou Permutao com Elemen-
tos Repetidos
Considere r tipos de elementos e n
i
cpias indistinguveis do elemento do tipo i. Por exemplo,
a palavra probabilidade tem duas cpias de cada uma das letras a,b,d,i e uma cpia de cada
uma das letras l,p,r,o,e. O nmero de sequncias ordenadas de comprimento n =

r
i=1
n
i

dado por
_
n
n
1
__
n n
1
n
2
__
n n
1
n
2
n
3
_
1 =
n!

r
i=1
n
i
!
.
Esta quantidade conhecida como coeciente multinomial e denotada por
_
n
n
1
n
2
. . . n
r
_
,
onde n =

r
i=1
n
i
.
Para vericar esta contagem, note que das n posies na sequncia de comprimento n,
pode-se escolher n
1
posies para os n
1
elementos indistinguveis do tipo 1 de
_
n
n
1
_
maneiras;
das n n
1
posies restantes na sequncia, n
2
posies para os n
2
elementos indistinguveis
do tipo 2 de
_
nn
1
n
2
_
maneiras. Finalmente, aps repetir este processo r 1 vezes, restam n
r
posies na sequncia para os n
r
elementos do tipo r, que s podem ser escolhidas de uma
nica maneira. Utilizando o mtodo da multiplicao, o nmero total de sequncias possveis
produto do nmero de maneiras onde os r tipos de elementos podem ser colocados.
Campos & Rgo
2.9. EXERCCIOS 43
O coeciente multinomial tambm calcula o nmero de parties de um conjunto n ele-
mentos em r subconjuntos com tamanhos dados n
1
, n
2
, . . . , n
r
. Aplicando-se o mesmo argu-
mento usado para demonstrar o Teorema Binomial, pode-se provar a seguinte generalizao
conhecida como Teorema Multinomial:
(x
1
+ x
2
+ . . . + x
r
)
n
=
n

i
1
=0
ni
1

i
2
=0

n
P
j<r1
i
j

i
r1
=0
_
n
i
1
i
2
. . . i
r
_
r

k=1
x
i
k
k
,
onde i
r
= n

j<r
i
j
.
Exemplo 2.8.1: Um monitor tendo resoluo de n = 1.280 854 pixels, com r = 3 cores
possveis (verde, azul, e vermelho) para cada pixel, pode mostrar
_
n
i
1
i
2
i
3
_
imagens tendo i
1
pixels verdes, i
2
pixels azuis, e i
3
pixels vermelhos. O nmero total de imagens que pode ser
exibida por este monitor para qualquer composio de cores de ver, azul, e vermelho pode
ser obtido utilizando o Teorema Multinomial fazendo x
1
= x
2
= . . . = x
r
= 1, dando o
resultado de r
n
possveis imagens.
Exemplo 2.8.2: Determine o coeciente de x
9
y
4
no desenvolvimento de (x
3
+ 2y
2
+
5
x
2
)
5
.
Soluo: O termo genrico do desenvolvimento
_
5
i
1
i
2
5 i
1
i
2
_
(x
3
)
i
1
(2y
2
)
i
2
(
5
x
2
)
5i
1
i
2
=
(2)
i
2
(5)
5i
1
i
2
_
5
i
1
i
2
5 i
1
i
2
_
x
3i
1
10+2i
1
+2i
2
y
2i
2
. (2.1)
Portanto, tem-se o termo x
9
y
4
se 5i
1
+2i
2
10 = 9 e 2i
2
= 4, o que implica que i
2
= 2 e
i
1
= 3. Logo, o coeciente de x
9
y
4
(2)
2
(5)
0
_
5
3 2 0
_
= 40.
2.9 Exerccios
1. Sabe-se que a senha pertencente a um sistema do Centro de Informtica-CIn/UFPE
possui 8 caracteres. Cada caracter pode ser qualquer letra (maisculas so diferentes de
minsculas), nmero ou caracter especial, somando ao todo 256 caracteres diferentes,
o que corresponde aos caracteres da tabela ASC. Com base nessas informaes calcule:
(a) Quantas senhas diferentes o sistema aceita?
(b) Quantas senhas diferentes podemos formar comeando com a letra a?
(c) Quantas senhas diferentes contendo o nmero 1 podemos formar?
(d) Quantas senhas diferentes podemos ter sem repetir nenhum caracter?
(e) Quantas senhas diferentes sem caracteres repetidos possuem a letra B ou possuem
o nmero 1 ou ambos?
(f) Desao: Quantas senhas diferentes possuem a letra Z vindo antes o caracter {?
Observao: vindo antes no signica imediatamente antes. (proposto por Gus-
tavo S. Ferreira)
Campos & Rgo
2.9. EXERCCIOS 44
2. O cdigo gentico especica um aminocido atravs de uma sequncia de trs nucleot-
deos. Cada nucleotdeo pode ser de um dos quatro tipos T, A, C e G, sendo permitidas
repeties. Quantos aminocidos podem ser codicados dessa maneira?
3. O cdigo Morse consiste de uma sequncia de pontos e traos em que repeties so
permitidas.
(a) Quantas letras se pode codicar usando exatamente n smbolos?
(b) Qual o nmero de letras que se pode codicar usando n ou menos smbolos?
4. Um domin um bloco retangular dividido em dois sub-retngulos. Cada sub-retngulo
possui um nmero. Sejam x e y esses nmeros (no necessariamente distintos). Como
o bloco simtrico, o domin (x, y) igual ao domin (y, x). Quantos blocos diferentes
de domin se pode fazer usando n nmeros diferentes?
5. Um homem possui n chaves das quais, exatamente uma abre a fechadura. Ele expe-
rimenta as chaves uma de cada vez, escolhendo ao acaso em cada tentativa uma das
chaves que no foi experimentada. Determine a probabilidade de que ele escolha a
chave correta na r-sima tentativa.
6. Uma caixa contm 40 fusveis bons e 10 defeituosos. Suponha que se selecionam 10
fusveis. Qual a probabilidade de que todos eles estejam bons?
7. Um nibus parte com 6 pessoas e para em 10 pontos diferentes. Supondo que os
passageiros tm igual probabilidade de descer em qualquer parada, determine a pro-
babilidade de que dois passageiros no desembarquem na mesma parada.
8. Uma caixa contm 10 bolas numeradas de 1 a 10. Seleciona-se uma amostra aleatria
de 3 elementos. Determine a probabilidade de que as bolas 1 e 6 estejam entre as bolas
selecionadas.
9. Uma caixa contm b bolas pretas e r bolas vermelhas. Bolas so extradas sem repo-
sio, uma de cada vez. Determine a probabilidade de se obter a primeira bola preta
na n-sima extrao.
10. Suponha que se extrai uma amostra de tamanho n de uma populao de r elemen-
tos. Determine a probabilidade de que nenhum de k elementos especcos estejam na
amostra se o mtodo utilizado
(a) amostragem sem reposio;
(b) amostragem com reposio.
11. Uma secretria descuidadamente coloca ao acaso n cartas em n envelopes. Determine
a probabilidade de que ao menos uma carta chegue ao seu destino.
12. Se voc possui 3 bilhetes de uma loteria para a qual se vendeu n bilhetes e existem 5
prmios, qual a probabilidade de voc ganhar pelo menos um prmio?
Campos & Rgo
2.9. EXERCCIOS 45
13. M mensagens so enviadas aleatoriamente atravs de N canais de comunicao, N >
M. Encontre a probabilidade do evento
A = {no mais que uma mensagem seja enviada atravs de cada canal}.
14. Qual a probabilidade de que os nascimentos de 12 pessoas caiam nos 12 diferentes
meses do ano (assumindo igual probabilidade para os nascimentos nos 12 meses)?
15. Dez livros so colocados aleatoriamente em uma prateleira. Encontre a probabilidade
de que:
(a) trs particulares livros estejam sempre juntos;
(b) k particulares livros estejam sempre juntos, 2 < k < 10.
16. Um conjunto de 4 chips de circuito integrado constitudo de 2 perfeitos e 2 defeituosos.
Se 3 chips so selecionados aleatoriamente do grupo, qual a probabilidade do evento
dois entre os 3 selecionados so defeituosos.
17. Calcule a probabilidade de que algum nmero decimal com k dgitos escolhido aleato-
riamente seja um nmero vlido de k dgitos na base octal.
18. Suponha o alfabeto com 26 letras. Calcule a probabilidade de que no haja letras
repetidas entre todas as seqncias com 3 letras.
19. Se uma caixa contm 75 chips de circuito integrado perfeitos e 25 defeituosos, e so
selecionados aleatoriamente 12, calcule a probabilidade de que pelo menos um dentre
os selecionados seja defeituoso.
20. Um professor faz 3 cartas de recomendao para 3 alunos. Entretanto, no momento de
entregar as cartas, ao invs de entregar cada carta ao seu respectivo dono, o professor
as entrega aleatoriamente.
(a) Qual a probabilidade de que ao menos um aluno tenha recebido a carta correta?
(b) Generalize o problema para n cartas.
21. Em um conjunto de 5 pessoas, compute a probabilidade de que pelos menos 2 faam
aniversrio no mesmo dia, assumindo que o ano tem 365 dias.
22. De uma caixa com etiquetas numeradas de 1 a 10, retiram-se duas ao acaso, com
reposio. Determine a probabilidade de que os nmeros nas etiquetas diram por 2.
23. No Brasil, a placa dos automveis uma string, na qual os 3 primeiros elementos so
letras escolhidas dentre as 26, e, os 4 ltimos, dgitos na base decimal.
(a) Qual o nmero mximo de automveis que podem ser emplacados neste sistema?
(b) Qual a probabilidade de que uma placa seja iniciada pela letra K?
24. Uma caixa contm bolas numeradas de 1 at n.
Campos & Rgo
2.9. EXERCCIOS 46
(a) Todas as bolas so retiradas da caixa aleatoriamente uma a uma.
(a1) Descreva o espao amostral.
(a2) Encontre a probabilidade de que os nmeros selecionados sejam inteiros
consecutivos em ordem crescente.
(b) Suponha a mesma caixa, com as mesmas bolas, mas agora a bola retirada, seu
nmero anotado e reposta na urna antes da retirada seguinte. Responda os
itens (a1) e (a2).
25. M cartes de Natal so distribudos aleatoriamente para N pessoas, N > M. Encontre
a probabilidade de que no mais que um carto de Natal seja enviado para cada pessoa.
26. Os nmeros 1, 2, , n so escritos de forma aleatria. Encontre a probabilidade de
que os dgitos
(a) 1 e 2,
(b) 1, 2 e 3,
apaream como vizinhos nessa ordem.
(c) Repita os itens (a) e (b) considerando apenas a condio de vizinhos.
27. (a) Suponha que os trs dgitos 1, 2 e 3 sejam escritos em ordem aleatria. Qual a
probabilidade de que ao menos um dgito ocupe seu lugar prprio?
(b) O mesmo que em (a) com os dgitos 1, 2, 3, e 4.
(c) O mesmo que em (a) com os dgitos 1, 2, , n.
(d) Examine a resposta em (c) quando n for grande.
28. Suponha que de N objetos, n < N sejam escolhidos ao acaso, com reposio. Qual
ser a probabilidade de que nenhum objeto seja escolhido mais do que uma vez?
29. Uma caixa contm etiquetas numeradas de 1, 2, , n. Duas etiquetas so escolhidas
ao acaso. Determine a probabilidade de que os nmeros das etiquetas sejam inteiros
consecutivos se:
(a) as etiquetas forem escolhidas sem reposio;
(b) as etiquetas forem escolhidas com reposio.
30. Dentre os nmeros 0, 1, , 9 so escolhidos ao acaso r nmeros (0 < r < 10), com
reposio. Qual a probabilidade de que no ocorram dois nmeros iguais?
31. Dois nmeros so selecionados aleatoriamente entre os nmeros 1, 2, . . . , n. Qual a
probabilidade de que a diferena entre o primeiro e o segundo nmeros escolhidos no
seja menor que m (m > 0).
32. Seja um alfabeto com 26 smbolos distintos a, b, , z. Considere como experimento
aleatrio a formao de strings de 3 smbolos, podendo os smbolos serem iguais.
Campos & Rgo
2.9. EXERCCIOS 47
(a) Descreva um espao amostral para este experimento.
(b) Qual a probabilidade de que uma string escolhida ao acaso dentre todas no
tenha elementos repetidos?
Campos & Rgo
Captulo 3
Probabilidade Condicional.
Independncia
3.1 Probabilidade Condicional
Neste captulo tem-se duas denies de suma importncia, tanto para Probabilidade e
Processos Estocsticos quanto para Estatstica, que so as denies de probabilidade condi-
cional e eventos independentes. A importncia e nfase no conceito de independncia car
evidente quando voc aluno descobrir como essa palavra aparecer repetidas vzes, especi-
almente no contexto de varivel aleatria, ou vetores aleatrios, mais para frente. Se se tem
independncia, problemas, de modo geral, so resolvidos facilmente. Caso contrrio, so
estudos de caso.
Como visto no Captulo 1, existem vrias possveis interpretaes de probabilidade. Por
exemplo, pode-se interpretar probabilidade de um evento A como um limite das frequncias
relativas de ocorrncia do evento A em realizaes independentes de um experimento. Por
outro lado, a interpretao subjetiva de probabilidade associa a probabilidade de um evento
A com o grau de crena pessoal que o evento A ocorrer. Em ambos os casos, probabilidade
baseada em informao e conhecimento. Reviso desta base de informao ou conheci-
mento pode levar a reviso do valor da probabilidade. Em particular, conhecimento que
determinado evento ocorreu pode inuenciar na probabilidade dos demais eventos.
Considerando-se a interpretao frequentista de probabilidade, suponha que o interesse
seja saber qual a probabilidade do evento A, visto que sabe-se que o evento B ocorreu.
Suponha que se realizasse um experimento n vezes das quais o evento A (respectivamente, B
e AB) ocorre n
A
(respectivamente, n
B
> 0 e n
AB
0) vezes. Seja r
A
= n
A
/n a frequncia
relativa do evento A nas n realizaes do experimento. A probabilidade condicional de A
dado que sabe-se que B ocorreu segundo esta interpretao frequentista, sugere que ela deve
ser igual ao limite das frequncias relativas condicionais do evento A dado o evento B, isto ,
deve ser o limite da razo n
AB
/n
B
quando n tende ao innito. fcil provar que esta razo
igual a r
AB
/r
B
, que por sua vez segundo a interpretao frequentista de probabilidade
aproximadamente igual a P(A B)/P(B) para valores grandes de n.
Considerando-se uma interpretao subjetiva, suponha que a incerteza de um agente
descrita por uma probabilidade P em (, A) e que o agente observa ou ca sabendo que
48
3.1. PROBABILIDADE CONDICIONAL 49
o evento B ocorreu. Como o agente deve atualizar sua probabilidade P(|B) de modo a
incorporar esta nova informao? Claramente, se o agente acredita que B verdadeiro,
ento parece razovel requerer que
P(B
c
|B) = 0. (3.1)
Em relao aos eventos contidos em B, razovel assumir que sua chance relativa per-
manea inalterada se tudo que o agente descobriu foi que o evento B ocorreu, ou seja, se
A
1
, A
2
B com P(A
2
) > 0, ento
P(A
1
)
P(A
2
)
=
P(A
1
|B)
P(A
2
|B)
. (3.2)
Segue que (10.1) e (3.2) determinam completamente P(|B) se P(B) > 0.
Teorema 3.1.1: Se P(B > 0) e P(|B) uma medida de probabilidade em que satisfaz
(10.1) e (3.2), ento
P(A|B) =
P(A B)
P(B)
.
Prova: Como P(|B) uma medida de probabilidade e satisfaz P(B
c
|B) = 0, ento
P(B|B) = 1 P(B
c
|B) = 1. Considerando A
1
= A e A
2
= B em (3.2), logo P(A|B) =
P(A)
P(B)
para A B. Se A no um subconjunto de B, tem-se que A = (A B) (A B
c
). Como
(A B) e (A B
c
) so eventos disjuntos, P(A|B) = P(A B|B) + P(A B
c
|B). Como
A B
c
B
c
e P(B
c
|B) = 0, ento P(A B
c
|B) = 0. Como A B B, usando o caso
anterior
P(A|B) = P(A B|B) =
P(A B)
P(B)
.
Deste modo as interpretaes frequentista e subjetivista de probabilidade justicam a
seguinte denio.
Denio 3.1.2: Seja (, A, P) um espao de probabilidade. Se A, B A e P(B) > 0 a
probabilidade condicional de A dado B denida por
P(A|B) =
P(A B)
P(B)
.
Para um evento xo B que satisfaz P(B) > 0, P(|B) satisfaz aos axiomas K1-K4 (Ca-
ptulo 1) e realmente uma medida de probabilidade. Para provar K2, note que para todo
A A, como P(A B) 0,
P(A|B) =
P(A B)
P(B)
0.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 50
Para provar K3, como B = B, ento
P(|B) =
P( B)
P(B)
=
P(B)
P(B)
= 1.
Finalmente, para provar (K5)

(que implica K4), se A


1
, A
2
, . . . so mutuamente exclusivos
A
1
B, A
2
B, . . . tambm o so, ento
P(
i
A
i
|B) =
P((
i
A
i
) B)
P(B)
=
P(
i
(A
i
B))
P(B)
=

i
P(A
i
B)
P(B)
=

i
P(A
i
|B).
A probabilidade condicional tambm satisfaz s seguintes propriedades:
(i) P(B|B) = 1.
(ii) P(A|B) = P(A B|B).
(iii) Se A B, ento P(A|B) = 1.
(iv) P(A B|C) = P(A|B C)P(B|C).
Fazendo C = na propriedade (iv) acima,
P(A B) = P(A|B)P(B).
Utilizando induo matemtica, pode-se facilmente provar que
P(A
1
A
2
. . . A
n
) = P(A
1
)P(A
2
|A
1
) . . . P(A
n
|A
1
. . . A
n1
).
Exemplo 3.1.3: exemplo de uso desta com ordem
Um mtodo de se obter uma probabilidade (incondicional) de uma probabilidade condi-
cional utilizando o Teorema da Probabilidade Total.
Teorema 3.1.4: Seja a sequncia de eventos B
1
, B
2
, . . . uma partio de . ento para
todo A A
P(A) =

i:P(B
i
)=0
P(A|B
i
)P(B
i
).
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 51
Prova:
Como B
1
, B
2
, . . . uma partio de ,
A = A = A (
i
B
i
) =
i
(A B
i
).
Como os eventos B
i
s so mutuamente exclusivos, os eventos (A B
i
)s tambm so
mutuamente exclusivos. Ento o axioma (K5)

implica que
P(A) = P(
i
(A B
i
))
=

i
P(A B
i
)
=

i:P(B
i
)=0
P(A B
i
)
=

i:P(B
i
)=0
P(A|B
i
)P(B
i
).
Se os eventos da partio B
1
, B
2
, . . . so interpretados como possveis causas e o evento
A corresponda a um efeito particular associado a uma causa, P(A|B
i
) especica a relao
estocstica entre a causa B
i
e o efeito A.
Por exemplo, seja {D, D
c
} uma partio do espao amostral, onde o evento D signica
que um dado indivduo possui uma certa doena. Seja A o evento que determinado teste para
o diagnstico da doena deu positivo. Ento, P(A|D
c
) descreve a probabilidade do exame d
positivo mesmo que o paciente esteja saudvel, a chamada probabilidade de falso positivo.
P(A
c
|D) a probabilidade do exame d negativo mesmo que o paciente esteja doente, a
chamada probabilidade de falso negativo. Estas probabilidades determinam a qualidade do
teste, quanto menores as probabilidades de falso negativo e falso positivo melhor a qualidade
do teste. Caso as probabilidades P(D), P(A|D), P(A|D
c
) sejam conhecidas pode-se usando o
Teorema da Probabilidade Total obter a probabilidade incondicional de determinado exame
dar positivo P(A). Porm, geralmente o que se busca saber que dado que o resultado de
um exame deu positivo qual a probabilidade de que o indivduo esteja doente. Pode-se obter
esta probabilidade utilizando a famosa frmula de Bayes:
P(D|A) =
P(A D)
P(A D) + P(A D
c
)
=
P(A|D)P(D)
P(A|D)P(D) + P(A|D
c
)P(D
c
)
.
Mais geralmente, a frmula de Bayes dada por:
P(B
i
|A) =
P(A B
i
)

j
P(A B
j
)
=
P(A B
i
)

j:P(B
j
)=0
P(A B
j
)
=
P(A|B
i
)P(B
i
)

j:P(B
j
)=0
P(A|B
j
)P(B
j
)
.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 52
Os B
i
podem descrever, por exemplo, diferentes mensagens emitidas em um sistema de
comunicaes e A pode descrever uma mensagem recebida pelo sistema. P(A|B
i
) determina a
probabilidade que a mensagem B
i
seja emitida e a mensagem Aseja recebida por este sistema.
Essas probabilidades condicionais especicam o modelo do canal de comunicaes. Caso
as probabilidades P(B
i
)s de cada mensagem ser enviada e as probabilidades condicionais
que descrevem o canal de comunicao sejam conhecidas pode-se usando o Teorema da
Probabilidade Total obter a probabilidade incondicional que determinada mensagem A seja
recebida. Porm geralmente, o que se busca saber que dado uma certa mensagem foi
recebida (efeito), A, qual a probabilidade de cada uma das mensagens B
i
terem sido as
mensagens enviadas. Podem-se obter estas probabilidades utilizando-se a frmula de Bayes.
fcil de provar a frmula de Bayes usando o Teorema da Probabilidade Total. As
probabilidades P(B
i
) so usualmente chamadas de probabilidades a priori e as probabilida-
des condicionais P(B
i
|A) de probabilidades a posteriori. O seguinte exemplo ilustra uma
aplicao da frmula de Bayes.
Exemplo 3.1.5: Considere uma imagem formada por n m pixels com a k-sima linha
contendo d
k
( m) pixels defeituosos. No primeiro estgio do experimento uma linha
escolhida ao acaso. A seguir, um pixel selecionado ao acaso nessa linha e constatado ser
defectivo; seja D este evento. Qual a probabilidade de que este pixel defeituoso esteja na
linha k?
Soluo: Seja R = k o evento que este pixel pertencia a k-sima linha da imagem. A
frmula de Bayes permite determinar que, dado que
P(R = k) =
1
n
e
P(D|R = k) =
d
k
m
,
tem-se que
P(R = k|D) =
1
n
d
k
m

n
i=1
1
n
d
i
m
=
d
k

n
i=1
d
i
.
Exemplo 3.1.6: Um sistema de comunicao telegrco transmite os sinais ponto (.) e
trao (-). A experincia tem mostrado que 2/5 dos pontos e 1/3 dos traos so mudados.
Suponha que a razo entre os pontos transmitidos e os traos transmitidos de 5 para 3.
Qual a probabilidade de que o sinal recebido seja o que foi transmitido quando
(a) o sinal recebido um ponto;
(b) o sinal recebido um trao.
Sejam os eventos
R

= {um ponto recebido},


R
_
= {um trao recebido},
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 53
T

= {um ponto transmitido},


T
_
= {um trao transmitido}.
e as probabilidades dadas no problema ou decorrentes de usar o complementar:
P(R

| T

) =
3
5
, P(R

| T
_
) =
1
3
, P(R
_
| T

) =
2
5
, P(R
_
| T
_
) =
2
3
, P(T

) =
5
8
e
P(T
_
) =
3
8
.
Tem-se que:
R

= (R

) (R

T
_
),
R
_
= (R
_
T
_
) (R
_
T

),
logo,
P(R

) = P(R

| T

)P(T

) + P(R

| T
_
)P(T
_
) =
3
5
5
8
+
1
3
3
8
=
4
8
,
P(R
_
) = P(R
_
| T
_
)P(T
_
) + P(R
_
| T

)P(T

) =
2
3
3
8
+
2
5
5
8
=
4
8
.
(a)
P(T

| R

) =
P(R

)
P(R

)
=
3
4
.
(b)
P(T
_
| R
_
) =
P(T
_
R
_
)
P(R
_
)
=
1
2
.
Exemplo 3.1.7: Um canal de comunicao binrio envia um dentre dois tipos de sinais,
denotados por 0 e 1. Devido ao rudo, um 0 transmitido alguma vezes recebido como um
1 e um 1 transmitido alguma vezes recebido como um 0. Para um dado canal, assuma
uma probabilidade de 0.94 que um 0 transmitido seja corretamente recebido como um 0 e
uma probabilidade de 0.91 que um 1 transmitido seja corretamente recebido como um 1.
Adicionalmente, assuma uma probabilidade de 0.45 de se transmitir um 0. Se um sinal
enviado, determine,
(a) A probabilidade de que um 1 seja recebido.
(b) A probabilidade de que um 0 seja recebido.
(c) A probabilidade de que um 1 foi transmitido, dado que um 1 foi recebido.
(d) A probabilidade de que um 0 foi transmitido, dado que um zero foi recebido.
(e) A probabilidade de um erro.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 54
Sejam os eventos
T
0
= {um 0 transmitido},
T
1
= {um 1 transmitido},
R
0
= {um 0 recebido},
R
0
= {um 1 recebido}.
Logo,
P(R
0
| T
0
) = 0.94 P(R
1
| T
0
) = 0.06,
P(R
1
| T
1
) = 0.91 P(R
0
| T
1
) = 0.09,
P(T
0
) = 0.45,
P(T
1
) = 0.55.
(a)
R
1
= (R
1
T
1
) (R
1
T
0
),
logo,
P(R
1
) = P(R
1
| T
1
)P(T
1
) + P(R
1
| T
0
)P(T
0
) = 0.91 0.55 + 0.06 0.45 = 0.5275.
(b)
R
0
= (R
0
T
0
) (R
0
T
1
),
logo,
P(R
0
) = P(R
0
| T
0
)P(T
0
) + P(R
0
| T
1
)P(T
1
) = 0.94 0.45 + 0.09 0.55 = 0.4725,
ou,
P(R
0
) = 1 P(R
1
) = 1 0.5275 = 0.4725.
(c)
P(T
1
| R
1
) =
P(T
1
R
1
)
P(R
1
)
=
P(R
1
| T
1
)P(T
1
)
P(R
1
)
=
0.91 0.55
0.5275
= 0.9488.
(d)
P(T
0
| R
0
) =
P(T
0
R
0
)
P(R
0
)
=
P(R
0
| T
0
)P(T
0
)
P(R
0
)
=
0.94 0.45
0.4725
= 0.8952.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 55
(e)
E = {acontece um erro}.
Logo,
E = (T
1
R
0
) (T
0
R
1
),
P(E) = P(R
0
| T
1
)P(T
1
) + P(R
1
| T
0
)P(T
0
) = 0.09 0.55 + 0.06 0.45 = 0.0765.
Exemplo 3.1.8: Uma urna contm 4 bolas brancas e 6 bolas pretas. Sacam-se, sucessiva-
mente e sem reposio, duas bolas dessa urna. Determine a probabilidade da primeira bola
ser branca sabendo que a segunda bola branca.
Soluo: Sejam B
1
e B
2
os eventos a primeira bola branca e a segunda bola branca,
respectivamente. Queremos calcular P(B
1
|B
2
). Utilizando a frmula de Bayes,
P(B
1
|B
2
) =
P(B
2
|B
1
)P(B
1
)
P(B
2
|B
1
)P(B
1
) + P(B
2
|B
c
1
)P(B
c
1
)
.
Mas P(B
2
|B
1
) =
3
9
, P(B
2
|B
c
1
) =
4
9
, P(B
1
) =
4
10
e P(B
c
1
) =
6
10
. Logo,
P(B
1
|B
2
) =
3
9

4
10
3
9

4
10
+
4
9

6
10
=
2
15
2
5
=
1
3
.
Embora probabilidade condicional seja bastante til, ela sofre de problemas, em particu-
lar quando se quer tratar de eventos de probabilidade zero. Tradicionalmente, se P(B) = 0,
ento P(A|B) no denida. Isto leva a um nmero de diculdades loscas em relao
a eventos com probabilidade zero. So eles realmente impossveis? Caso contrrio, quo
improvvel um evento precisa ser antes de ele ser atribudo probabilidade zero? Deve um
evento em algum caso ser atribudo probabilidade zero? Se existem eventos com probabili-
dade zero que no so realmente impossveis, ento o que signica condicionar em eventos
de probabilidade zero? Por exemplo, considere o espao de probabilidade ([0, 1], B, ) onde
B a -lgebra de Borel restrita a eventos contidos em [0, 1] e uma medida de pro-
babilidade na qual todo intervalo em [0, 1] possui probabilidade igual ao seu comprimento.
Seja B = {1/4, 3/4} e A = {1/4}. Como P(B) = 0, P(A|B) no denida. Porm parece
razovel assumir que neste caso P(A|B) = 1/2 j que intuitivamente implica que todos os
estados so equiprovveis, mas a denio formal de probabilidade condicional no permite
obter esta concluso.
Alguns dos problemas mencionados no pargrafo anterior podem ser tratados considerando-
se probabilidades condicionais (e no probabilidade incondicionais) como a noo fundamen-
tal, porm a discusso destes modelos est fora do escopo deste curso (referencia).
Exemplo 3.1.9: Se P(C|D) = 0, 4 e P(D|C) = 0, 5, que evento mais provvel C ou D?
Soluo:
P(C | D) =
P(C D)
P(D)
= 0.4 P(D) =
P(C D)
0.4
.
P(D | C) =
P(C D)
P(C)
= 0.5 P(C) =
P(C D)
0.5
.
Como
P(CD)
0.4
>
P(CD)
0.5
, ento D mais provvel que C.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 56
Exemplo 3.1.10: Se P(E) = 0, 4 e P(F) = 0, 7, o que pode-se concluir sobre P(E|F)?
Soluo: Por denio,
P(E|F) =
P(E F)
P(F)
.
Porm, max(P(E)+P(F)1, 0) P(EF) min(P(E), P(F)). Logo, 0, 1 P(EF)
0, 4, portanto
0, 1
0, 7
P(E|F)
0, 4
0, 7
.
Exemplo 3.1.11: (Paradoxo de Monty Hall) Monty Hall foi um popular apresentador
de programa de jogos em TV cujo jogo comeava mostrando ao participante trs portas
fechadas d
1
, d
2
, d
3
, onde atrs de apenas uma delas havia um prmio valioso. O participante
selecionava uma porta, por exemplo, d
1
, mas antes que a porta fosse aberta, Monty Hall,
que sabia em que porta estava o prmio, por exemplo, d
2
, abria a porta restante d
3
, que no
continha o prmio. O participante tinha ento permisso para car com sua porta original,
d
1
, ou escolher a outra porta fechada. A pergunta se melhor car com a porta original
ou trocar de porta. A frmula de Bayes utilizada para analisar este problema. Seja G uma
porta escolhida aleatoriamente para conter o prmio; Y a porta que o participante escolhe
primeiro; e M a porta que Monty Hall abre. O participante no tem qualquer conhecimento
a priori sobre a localizao do prmio, ou seja ele considera todas as portas equiprovveis, e
isto pode ser modelado por
P(G = d
i
|Y = d
j
) =
1
3
,
isto , todas as portas tm a mesma probabilidade de conter o prmio no importa qual porta
o participante escolha. Se o participante escolher uma porta que no contm o prmio, Monty
Hall necessariamente ter de abrir a porta que no contm o prmio, isto pode ser modelado
por
P(M = d
i
1
|Y = d
i
2
, G = d
i
3
) = 1,
onde i
1
, i
2
, i
3
{1, 2, 3} e so distintos. Se o participante escolher corretamente, por exemplo,
Y = G = d
i
2
, ento Monty Hall escolhe aleatoriamente entre as outras duas outras portas:
P(M = d
i
1
|Y = G = d
i
2
) =
1
2
, para d
i
1
= d
i
2
.
1
Para determinar se o participante deve trocar de porta, deve-se calcular
P(G = d
1
|Y = d
2
, M = d
3
) =
P(G = d
1
, Y = d
2
, M = d
3
)
P(Y = d
2
, M = d
3
)
=
P(M = d
3
|G = d
1
, Y = d
2
)P(G = d
1
|Y = d
2
)P(Y = d
2
)
P(M = d
3
|Y = d
2
)P(Y = d
2
)
=
P(M = d
3
|G = d
1
, Y = d
2
)P(G = d
1
|Y = d
2
)
P(M = d
3
|Y = d
2
)
=
1/3
P(M = d
3
|Y = d
2
)
.
1
A soluo depende como este caso resolvido.
Campos & Rgo
3.1. PROBABILIDADE CONDICIONAL 57
O Teorema da Probabilidade Total e a denio de probabilidade condicional so utilizados
para determinar o valor de P(M = d
3
|Y = d
2
).
P(M = d
3
|Y = d
2
) =
P(Y = d
2
, M = d
3
)
P(Y = d
2
)
=
P(Y = d
2
, M = d
3
, G = d
1
) + P(Y = d
2
, M = d
3
, G = d
2
) + P(Y = d
2
, M = d
3
, G = d
3
)
P(Y = d
2
)
=
P(M = d
3
|Y = d
2
, G = d
1
)P(G = d
1
|Y = d
2
)P(Y = d
2
)
P(Y = d
2
)
+
P(M = d
3
|Y = d
2
, G = d
2
)P(G = d
2
|Y = d
2
)P(Y = d
2
)
P(Y = d
2
)
+
P(M = d
3
|Y = d
2
, G = d
3
)P(G = d
3
|Y = d
2
)P(Y = d
2
)
P(Y = d
2
)
= P(M = d
3
|Y = d
2
, G = d
1
)P(G = d
1
|Y = d
2
)
+P(M = d
3
|Y = d
2
, G = d
2
)P(G = d
2
|Y = d
2
)
+P(M = d
3
|Y = d
2
, G = d
3
)P(G = d
3
|Y = d
2
)
= 1
1
3
+
1
2

1
3
+ 0 =
1
2
.
Logo, P(G = d
1
|Y = d
2
, M = d
3
) =
2
3
, e o participante deve trocar de porta de sua escolha
original d
2
para d
1
!
Exemplo 3.1.12: Seja D o evento que um indivduo selecionado ao acaso de uma populao
tem uma doena particular. A probabilidade que um indivduo selecionado ao acaso nesta
populao tenha determinada doena p
d
. Existe um teste para diagnstico desta doena
que sempre acusa presena da doena quando o indivduo tem a doena. Contudo, quando
o indivduo no tem a doena, o teste reporta falsamente que o indivduo tem a doena com
probabilidade p
t
. Seja TP o evento que o teste reporta positivamente que o indivduo tem
a doena. Formalmente,
P(D) = p
d
, P(TP|D) = 1, P(TP|D
c
) = p
t
.
Um indivduo pode estar interessado em saber a probabilidade P(D|TP) que ele tenha a
doena dado que o teste deu positivo. Se, por exemplo, a doena for rara, p
d
= 0, 001 e o
teste reportar falsamente com probabilidade pequena p
t
= 0, 05, ser visto que, apesar desta
pequena probabilidade do teste d um resultado errado, a probabilidade do indivduo ter a
doena pequena. Pela frmula de Bayes
P(D|TP) =
P(TP|D)P(D)
P(TP|D)P(D) + P(TP|D
c
)P(D
c
)
=
p
d
p
d
+ p
t
(1 p
d
)
= 0, 02.
Exemplo 3.1.13: Suponha que todos os bytes tenham a mesma probabilidade de ocorrn-
cia. Seja W o nmero de 1s em um byte. Considere os seguintes eventos:
A = {O primeiro e o segundo bit so iguais a 1}
Campos & Rgo
3.2. INDEPENDNCIA 58
e
B = {W um nmero mpar}.
Calcular P(A), P(B), P(B|A) e P(A|B).
Soluo:
P(A) =
||A||
||||
=
2
6
2
8
=
1
4
.
P(B) =
||B||
||||
=
_
8
1
_
+
_
8
3
_
+
_
8
5
_
+
_
8
7
_
2
8
=
1
2
.
P(B|A) =
P(A B
P(A)
,
onde P(A B) =
||AB||

=
(
6
1
)+(
6
3
)+(
6
5
)
2
8
=
1
8
. Portanto,
P(B|A) =
1
8
1
4
=
1
2
.
P(A|B) =
P(A B)
B
=
1
8
1
2
=
1
4
.
Exemplo 3.1.14: Dois dados so jogados, um aps o outro, e observa-se o evento a soma
dos dois dados igual a 9; ento, qual a probabilidade do primeiro dado ter dado resultado
4?
Soluo:
P(A|B) =
P(A B)
P(B)
=
1
36
4
36
=
1
4
.
3.2 Independncia
O que exatamente signica que dois eventos so independentes? Intuitivamente, isto signica
que eles no tm nada a ver um com o outro, so no relacionados; a ocorrncia de um no
tem qualquer inuncia sobre a ocorrncia do outro. A intuio por trs da frase o evento
A independente do evento B que o conhecimento sobre a tendncia para A ocorrer
dado que sabe-se que B ocorreu no alterada quando sabe-se que B ocorreu. Ento,
usando probabilidades condicionais pode-se formalizar esta intuio da seguinte forma: A
independente de B se P(A|B) = P(A). Mas usando a denio de probabilidade condicional,
chega-se a concluso que A independente de B se P(AB) = P(A)P(B). Como esta ltima
expresso denida inclusive para o caso de P(B) = 0, ela a expresso adotada como a
denio de independncia entre dois eventos.
Denio 3.2.1: O evento A independente do evento B se P(A B) = P(A)P(B).
Campos & Rgo
3.2. INDEPENDNCIA 59
Esta denio de independncia implica que independncia um conceito simtrico em
teoria da probabilidade, isto , A independente de B se e somente se B independente
de A. Note que esta denio tambm implica que eventos A e B so independentes se
P(A) = 0 ou P(B) = 0, o que pode gerar concluses no intuitivas se de fato P(A) = 0
ou P(B) = 0. Por exemplo, se P(A) = 0, ento A independente dele mesmo, porm
A certamente no no relacionado consigo mesmo. Similarmente, fcil provar que se
P(A) = 1, A independente dele mesmo. O seguinte teorema prova que estes so os nicos
casos em que um evento independente dele mesmo.
Teorema 3.2.2: A independente dele mesmo se e somente se P(A) = 0 ou P(A) = 1.
Prova:
P(A A) = P(A) = P(A)P(A) P(A) = 0 ou P(A) = 1.
Intuitivamente, se A independente de B o fato que B no ocorreu, ou seja que B
c
ocorreu, no deve alterar a probabilidade de A. Portanto, de se esperar que se A e B so
independentes, ento A e B
c
tambm so. O seguinte teorema prova que esta intuio
verdadeira.
Teorema 3.2.3: Se A e B so eventos independentes, A e B
c
(respectivamente A
c
e B,
A
c
e B
c
) tambm o so.
Prova:
A = A = A (B B
c
) = (A B) (A B
c
).
Ento, como A B e A B
c
so mutuamente exclusivos, o axioma K3 implica que
P(A) = P(A B) + P(A B
c
).
Como A e B so independentes,
P(A) = P(A)P(B) + P(A B
c
).
Rearrajando os termos e utilizando o fato que P(B
c
) = 1P(B), tem-se que P(AB
c
) =
P(A)P(B
c
).
O conceito de independncia tambm se aplica a uma coleo arbitrria de eventos
{A
i
}
iI
, onde I um conjunto de ndices. Neste caso, tm-se duas denies.
Denio 3.2.4: Uma coleo de eventos {A
i
}
iI
independente par a par se para todo
i = j I, A
i
e A
j
so eventos independentes.
Denio 3.2.5: Uma sequncia nita de eventos A
1
, A
2
, . . . , A
n
, n 1, mutuamente
independente se para todo I {1, . . . , n},
P(
iI
A
i
) =

iI
P(A
i
).
Campos & Rgo
3.2. INDEPENDNCIA 60
Denio 3.2.6: Uma coleo de eventos {A
i
}
iI
mutuamente independente se para
todo J I nito, {A
i
}
iJ
so mutuamente independentes.
Exemplo 3.2.7: Se = {1, 2, 3, 4} e P({w}) = 1/4, ento A = {1, 2}, B = {1, 3}, e
C = {2, 3} so eventos independentes par a par.
Soluo: Pode-se vericar isto pelo fato que
P(A B) = P({1}) =
1
4
=
1
2
1
2
= P(A)P(B).
Similarmente, pode-se provar o mesmo resultado para os outros pares. Contudo,
P(A B C) = P() = 0 = P(A)P(B)P(C) =
1
8
.
Ento, A, B, e C no so mutuamente independentes.
Exemplo 3.2.8: Se = {1, 2, 3, 4, 5, 6}, A = {1, 2, 4}, e B = {2, 3, 5}, ento construa uma
medida de probabilidade em tal que A e B sejam independentes.
Soluo: Seja p
i
a probabilidade do elemento i . Ento, para que A e B sejam inde-
pendentes,
P(A B) = p
2
= P(A)P(B) = (p
1
+ p
2
+ p
4
)(p
2
+ p
3
+ p
5
).
Por exemplo, pode-se escolher p
1
= p
2
= p
3
= p
6
=
1
4
e p
4
= p
5
= 0. Deste modo,
P(A B) =
1
4
e P(A) = P(B) =
1
2
.
Exemplo 3.2.9: O evento F de que um determinado sistema falhe ocorre se os eventos A
1
ou A
2
ocorrerem, mas o evento A
3
no ocorrer. Se A
1
, A
2
, A
3
so mutumente independetes
e P(A
1
) = 0.4, P(A
2
) = 0.35, e P(A
3
) = 0.1, ento calcule P(F).
Soluo: O evento F igual ao evento (A
1
A
2
) A
c
3
. Logo sua probabilidade igual a:
P(F) = P((A
1
A
2
) A
c
3
) = P(A
1
A
2
)P(A
c
3
)
= (P(A
1
) + P(A
2
) P(A
1
)P(A
2
))(1 P(A
3
)) = (0.4 + 0.35 0, 4 0.35)(0.9) = 0.549.
Exemplo 3.2.10: Assuma que A
1
, . . . , A
n
so eventos mutuamente independentes e que
P(A
i
) = p
i
. Calcular as probabilidades dos seguintes eventos:
(a) O evento A o evento onde todos estes eventos ocorrem:
P(A) = P(
n
i=1
A
i
) =
n

i=1
P(A
i
) =
n

i=1
p
i
.
(b) O evento B o evento que nenhum desses eventos ocorre:
P(B) = P(
n
i=1
A
c
i
) =
n

i=1
P(A
c
i
) =
n

i=1
(1 p
i
).
Campos & Rgo
3.3. EXERCCIOS 61
(c) O evento C o evento onde pelo menos um desses eventos ocorre:
P(C) = P(B
c
) = 1 P(B) = 1
n

i=1
(1 p
i
).
Exemplo 3.2.11: Joo e Jos disputam um jogo com uma moeda equilibrada. Cada
jogador lana a moeda duas vezes e vence o jogo aquele que primeiro obtiver dois resultados
iguais. Joo comea jogando e se no vencer passa a moeda para Jos e continuam alternando
jogadas. Qual a probabilidade de Joo vencer o Jogo?
Soluo: Seja A
k
o evento dois resultados iguais so obtidos na k-sima tentativa. Note
que P(A
k
) =
1
2
. Seja B
k
o evento Joo ganha na sua k-sima jogada. Ento,
B
1
= A
1
; B
2
= A
c
1
A
c
2
A
3
; B
3
= A
c
1
A
c
2
A
c
3
A
c
4
A
5
,
em geral,
B
k
= A
c
1
A
c
2
A
c
2k2
A
2k1
.
Portanto,
P(B
k
) = P(A
c
1
A
c
2
A
c
2k2
A
2k1
) = P(A
c
1
)P(A
c
2
) P(A
c
2k2
)P(A
2k1
) = (
1
2
)
2k1
,
onde a penltima igualdade se deve ao fato dos lanamentos serem independentes. Logo,
P(Joo vencer) = P(

k=1
B
k
) =

k=1
P(B
k
) =

k=1
(
1
2
)
2k1
=
2
3
.
3.3 Exerccios
1. Sabe-se que os eventos {B
1
, B
2
, B
3
} so disjuntos par a par e que sua unio igual
ao espao amostral. Estes eventos tm as probabilidades P(B
1
) = 0.2 e P(B
2
) = 0.3.
Existe um outro evento A tal que P(A|B
1
) = 0.3, P(A|B
2
) = 0.4 e P(A|B
3
) = 0.1.
Calcule:
(a) P(A).
(b) P(B
2
|A).
2. Considere os eventos A, B e C. Sendo A e B independentes, A e C independentes e
B e C mutuamente excludentes, mostre que A e B C so independentes.
3. Sejam A
1
, A
2
, . . . A
n
eventos independentes com p
k
= P(A
k
), k = 1, . . . , n. Obtenha a
probabilidade de ocorrncia dos seguintes eventos, em termos das probabilidades p
k
:
(a) A ocorrncia de nenhum dos A
k
.
(b) A ocorrncia de pelo menos um dos A
k
.
(c) A ocorrncia de exatamente um dos A
k
.
Campos & Rgo
3.3. EXERCCIOS 62
(d) A ocorrncia de exatamente dois dos A
k
.
(e) A ocorrncia de, no mximo, n 1 dos A
k
.
4. Numa certa cidade, 75% de seus habitantes tm menos de 30 anos, enquanto os outros
25% tm mais de 30 anos. Sabendo-se que a taxa de alfabetizao entre os jovens,
idade < 30 anos de 40% e entre os no jovens, idade 30 anos, de 30%, calcule:
(a) a probabilidade de que um habitante escolhido ao acaso seja alfabetizado;
(b) a probabilidade de que um habitante alfabetizado ter menos de 30 anos.
5. Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defei-
tuoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote com-
prado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 de-
feituoso? (este item ser facilmente resolvido usando uma Binomial, a qual ser
vista posteriormente)
6. Um porta-nqueis contm moedas de prata e de cobre em igual nmero. Extraem-se
ao acaso e sem reposio duas moedas. Calcule a probabilidade de que:
(a) saia uma moeda de prata na segunda tiragem;
(b) uma e uma s das moedas seja de prata;
(c) a segunda moeda extrada seja de prata, sabendo-se que a primeira era de cobre;
(d) pelo menos uma das moedas seja de cobre.
7. Seja o espao amostral = {a, b, c, d, e} onde P({a, b, c}) =
1
2
e P({a}) =
1
4
.
(a) Determine as probabilidades de todos os eventos cujas probabilidades podem ser
computadas dos dados.
(b) Compute P({b, c, d} | {a, b, c}).
(c) Compute P({a} | {a, b, c}).
8. Sabe-se que em um centro de processamento de dados, 80% dos programas so escritos
em C, 20% em Haskell, e que 20% dos programas em C e 40% dos em Haskell compilam
da primeira vez.
(a) Qual a probabilidade de que um programa selecionado aleatoriamente compile
da primeira vez?
Campos & Rgo
3.3. EXERCCIOS 63
(b) Se um programa selecionado aleatoriamente compilar da primeira vez, qual a
probabilidade de que tenha sido escrito em Haskell?
9. Suponha que a ocorrncia ou no de chuva dependa das condies do tempo no dia
imediatamente anterior. Adimita que se chove hoje, chover amanh com probabilidade
0.7 e que se no chove hoje chover amanh com probabilidade 0.4. Sabendo-se que
choveu hoje, calcule a probabilidade que chover depois de amanh.
10. Em um teste de mltipla escolha, a probabilidade do aluno saber a resposta p.
Havendo m escolhas se ele sabe a resposta, responde corretamente com probabilidade
1; se no sabe, responde corretamente com probabilidade 1/m.
(a) Qual a probabilidade de que a pergunta tenha sido respondida corretamente?
(b) Qual a probabilidade que o aluno sabia a resposta dado que a pergunta foi res-
pondida corretamente?
11. Sejam A
1
, A
2
, . . . A
n
eventos independentes com p
k
= P(A
k
), k = 1, . . . , n. Obtenha a
probabilidade de ocorrncia dos seguintes eventos, em termos das probabilidades p
k
:
(a) A ocorrncia de exatamente um dos A
k
.
(b) A ocorrncia de exatamente dois dos A
k
.
(c) A ocorrncia de, no mximo, n 1 dos A
k
.
12. Considere as seis permutaes das letras a, b, c como tambm os triplets (a, a, a),
(b, b, b), (c, c, c). Seja consistindo dos nove triplets, cada um com probabilidade
1/9. Denindo os eventos
A
k
= { o k-simo lugar ocupado pela letra a },
para k = 1, , 3 mostre que eles so independentes dois a dois mas no so inde-
pendentes trs a trs (a questo tambm poderia ter sido: verique se os eventos so
mutuamente independentes).
13. Suponha que trs rapazes possuem bons idnticos. Cada um atira seu bon no centro
de uma mesa. Os bons so misturados e ento cada um seleciona aleatoriamente um
bon.
(a) Qual a probabilidade que nenhum dos trs tenha escolhido seu prprio bon?
(b) Resolva o mesmo problema para n.
14. Em um conjunto de N itens, M esto com defeito. So tomados n itens para inspeo.
Se m ou mais itens dessa amostra so defeituosos, o conjunto todo rejeitado. Encontre
a probabilidade de que isto acontea.
15. Durante um dado perodo de tempo, um radar detecta um alvo com probabilidade p.
Sabe-se que as deteces de alvos por perodos de tempo idnticos, so independentes
umas das outras. Encontre a probabilidade que o mssel seja detectado em ao menos
um dos n perodos de tempo idnticos.
Campos & Rgo
3.3. EXERCCIOS 64
16. Um computador consiste de n unidades. A conabilidade (tempo livre de falha) da
1a. unidade durante o tempo T p
1
, da 2a. unidade para o tempo T p
2
, e assim por
diante. As unidades falham independentemente umas das outras. Quando qualquer
unidade falha, o computador falha. Encontre a probabilidade de que o computador
falhe durante o tempo T.
17. Trs mensagens so enviadas atravs de trs canais de comunicao, cada uma das
quais pode ser transmitida com diferente exatido. A transmisso de uma mensagem
pode levar a um dos seguintes eventos:
A
1
= { a mensagem transmitida da forma correta};
A
2
= { a mensagem parcialmente distorcida};
A
3
= { a mensagem completamente distorcida}.
As probabilidades dos eventos A
1
, A
2
e A
3
so conhecidas e iguais a p
1
, p
2
e p
3
(p
1
+ p
2
+ p
3
= 1). Considerando que mensagens podem ser distorcidas ou trans-
mitidas corretamente independentemente umas das outras, encontre a probabilidade
dos seguintes eventos:
(a) A = {todas as trs mensagens so transmitidas da forma correta}.
(b) B = {pelo menos uma das mensagens completamente distorcida}.
(c) C = {no menos de duas mensagens so completamente ou parcialmente distorcidas}.
18. Durante um dado perodo de tempo, um software pode apresentar erros com probabili-
dade p
0
. Assumindo independncia entre os eventos considerados, quantos perodos de
tempo so necessrios para que erros sejam detectados com probabilidade no menor
que p?
19. Uma mensagem que est sendo transmitida atravs de um canal de comunicao con-
siste de n smbolos. Durante a transmissso, a probabilidade de cada um dos smbolos
serem distorcidos, independentemente uns dos outros, p. Por questes de segurana,
cada mensagem ento enviada k vezes.
(a) Encontre a probabilidade de que pelo menos uma das mensagens que est sendo
transmitida, no seja distorcida em qualquer um dos seus smbolos.
(b) Quantas vezes uma mensagem precisa ser repetida para que a probabilidade de
que pelo menos uma das mensagens no seja distorcida no seja menor que p?
20. Coloque V ou F nas sentenas abaixo:
(a) A e B independentes P(A B) = P(A) + P(B). ( )
(b) A e B independentes P(A B) = P(A) + P(B) P(A)P(B). ( )
(c) A e B independentes P(A B) = P(A)P(B). ( )
(d) A e B independentes P(A | B) = P(B). ( )
Campos & Rgo
3.3. EXERCCIOS 65
(e) A e B independentes P(A | B) = P(A). ( )
(f) A e B so excludentes A e B so independentes. ( )
Nos itens a seguir B = {bebo}, D = {dirijo}. Voc vai responder estes itens
tendo em vista que voc um cidado brasileiro responsvel, consciente
de que o futuro do seu pas depende de voc, alis, voc o futuro do
Brasil!
(g) B D. ( )
(h) B D. ( )
(i) P(D | B) = 1. ( )
(j) P(B | D) = 0. ( )
(k) B e D so eventos independentes. ( )
(l) B e D so eventos excludentes. ( )
21. Uma mensagem consistindo de n smbolos binrios "0"e "1" enviada. Cada smbolo
distorcido com uma probabilidade p. Por questes de segurana a mensagem repetida
duas vezes. A informao considerada correta se ambas as mensagens coincidem.
Encontre a probabilidade de que ambas as mensagens estejam distorcidas, a despeito
de coincidirem.
22. A causa de um acidente est sendo investigada e existem quatro hiptesis possveis: H
1
,
H
2
, H
3
e H
4
. Estatisticamente sabe-se que P(H
1
) = 0.2, P(H
2
) = 0.4, P(H
3
) = 0.3
e P(H
4
) = 0.1. J sabido que ocorreu o evento A = {falha no nvel do leo}. Pelas
mesmas estatsticas a probabilidade condicional do evento A dadas as hiptesis H
1
, H
2
,
H
3
e H
4
so, respectivamente, 0.9, 0, 0.2 e 0.3. Encontre as probabilidades a posteriori
para as hiptesis.
23. Um colgio composto de 70% de homens e 30% de mulheres. Sabe-se que 40%
dos homens e 60% das mulheres so fumantes. Qual a probabilidade de que um
estudante que foi visto fumando seja homem? (estes dados, atualmente, pelo menos
entre os alunos do CCEN e do CIn, ambos da UFPE s ao irreais, pois as probabilidades
de fumantes so quase zero!)
24. Suponha que os automveis tm igual probabilidade de serem produzidos na segunda,
tera, quarta, quinta e sexta-feira. As percentagens de automveis amarelos produzidos
nos diferentes dias da semana so: segunda, 4%; tera, quarta e quinta, 1%; sexta, 2%.
Se voc compra um automvel amarelo, qual a probabilidade de que o mesmo foi
produzido numa segunda-feira?
25. Um homem dispara 12 tiros independentemente num alvo. Qual a probabilidade de
que atinja o alvo pelo menos uma vez, se tem probabilidade 9/10 de atingir o alvo em
qualquer tiro?
26. Certo experimento consiste em lanar um dado equilibrado duas vezes, independente-
mente. Dado que os dois nmeros sejam diferentes, qual a probabilidade (condicional)
de:
Campos & Rgo
3.3. EXERCCIOS 66
(a) pelo menos um dos nmeros ser 6;
(b) a soma dos nmeros ser 8.
27. Trs prisioneiros
2
so informados por seu carcereiro que um deles foi escolhido aleato-
riamente para ser executado, e os outros dois sero libertados. O prisioneiro A pede
ao carcereiro para lhe dizer condencialmente qual, de seus dois companheiros de cela,
ser libertado, armando que no h qualquer problema, pois ele ja sabe que pelo
menos um deles estar em liberdade. O carcereiro recusa-se a responder a pergunta,
argumentando que, se A soubesse qual de seus companheiros seria libertado, ento sua
prpria probabilidade de ser executado cresceria de 1/3 para 1/2. Que voc pensa
do julgamento de carcereiro? (S. M. Ross, Introduction to Probability Models. Fifth
Edition, Academic Press, 1972, pp. 20)
28. Consider three prisioners, A, B, and C. Two of the prisioners are to be released, and
the prisioners know this, but not the identities of the two. Prisioner A ask the guard
to tell him the identity of one prisioner other than himself who is to be released. The
guard refuses and explains himself by saying to prisioner A, your probability of being
released is now 2/3. If I tell you that B, say, is to be released, then you would be
one of only two prisioners whose fate is unknown and your probability of release would
consequently decrease to 1/2. Since I dontt want to hurt your chances for release I am
not going to tell you. Is the guard correct in his reasoning? (R. Isaac, The Pleasures
of Probability. Springer-Verlag, 1995, pp. 24)
29. The Prisioners Dilemma. Three prisioners A, B, and C, with apparently equally
good records have applied for parele. The parole board has decided to release teo of
the three, and the prisioners know this but not which two. A warder friend of prisioner
A knows who are to be released. Prisioner A realizes that it would be unethical to
ask the warder if he, A, is to be released, but thinks of asking for the name of the one
prisioner other than himself who is to be released. He thinks that if the warder says
B will be released, his own chances have gone down to 1/2, because either A and B
or B and C are to be released. And so A decides not to reduce his chances by asking.
However, A is mistaken in his calculations. Explain. (F. Mosteller, Fifty Challenging
Problems in Probability. Dover Publications, Inc., New York, 1965, pp 28.)
30. Three prisioners A, B, and C, are locked in their cells. It is common knowledge that
one of them will be executed the next day and the others pardoned. Only the governor
knows which one will be executed. Prisioner A ask the guard a favor: Please ask
the governor who will be executed, and then take a message to one of my friends B
and C to let him know that he will be pardoned in the morning. The guard agrees,
and comes back later and tells A that he gave the pardon message to B. What are
As chances of being executed, given this information? (Answer this mathematically,
not by energetic waving of hands.) (S. Russel and P. Norvig, Artitial Intelligence A
Modern Approach. Prentice Hall, New Jersey, 1995.)
2
Este problema aparece em vrios livros as quais esto aqui presentes. Voc v alguma semelhana entre
o citado problema e o Paradoxo de Monty Hall?
Campos & Rgo
3.3. EXERCCIOS 67
31. Num stand de automveis os registros indicam que 50% dos clientes pretendem ar
condicionado no carro, 49% preferem carro com direo hidrulica e 25% interessam-se
pelas duas coisas simultaneamente. Um registro selecionado aleatoriamente.
(a) Qual a probabilidade de que o ar condicionado tenha sido pretendido mas no a
preferncia do carro com direo hidrulica?
(b) Qual a probabilidade de que nenhuma das referidas preferncias tenha sido
selecionada?
(c) Qual a probabilidade de exatamente uma das referidas preferncias ter sido
selecionada?
32. Trs jornais A, B e C so publicados em uma cidade e uma recente pesquisa entre os
elitores indica o seguinte: 20% lem A; 26% lem B; 14% lem C; 8% lem A e B; 5%
lem A e C; 2% lem A, B e C; 4% lem B e C. Para um adulto escolhido ao acaso,
calcule a probabilidade de que:
(a) ele no leia qualquer dos jornais;
(b) ele leia exatamente um dos jornais;
(c) ele leia ao menos A e B se se souber que ele l ao menos um dos jornais publicados.
33. Uma mquina impressora pode imprimir n letras, digamos
1
,
2
,
n
. Ela acionada
por impulsos eltricos, cada letra sendo produzida por um impulso diferente. Suponha
que exista uma probabilidade constante p de imprimir a letra correta e tambm suponha
independncia. Um dos n impulsos, escolhido ao acaso, foi alimentado na mquina duas
vezes e, em ambas, a letra
1
foi impressa. Calcule a probabilidade de que o impulso
escolhido tenha sido para imprimir
1
.
34. Estima-se que a probabilidade de que Mrio seja culpado 0.2. So chamadas duas
testemunhas, Alberto e Carlos. Se Mrio for realmente culpado, Alberto dir que ele
culpado com certeza e Carlos dir que Mrio culpado com probabilidade 0.6. Se
Mrio for inocente, Alberto dir com probabilidade de 0.3 que ele inocente e Carlos
dir certamente que ele inocente.
(a) Qual a probabilidade de Alberto dizer que Mrio inocente?
(b) Qual a probabilidade de Mrio ser inocente se Carlos disser que inocente?
Campos & Rgo
Captulo 4
Variveis Aleatrias Unidimensionais e
Funes
4.1 Introduo
Analisando o trfego de redes Ethernet, o interesse pode ser, por exemplo, nas variveis n-
mero total de bytes, ou nmero total de pacotes, ou ainda, percentual de utilizao da rede
em determinados perodos de tempo. Suponha que uma moeda lanada cinco vezes. Qual
o nmero de caras? Quantidades desse tipo o que tradicionalmente tm sido chamadas
de variveis aleatrias. Intuitivamente, so variveis aleatrias porque seus valores variam,
dependendo da sequncia de lanamentos da moeda obtida ou do instante em que a rede
observada; o adjetivo aleatria usado para enfatizar que o seu valor de certo modo
incerto. Formalmente, contudo, uma varivel aleatria no nem aleatria nem varivel.
Na verdade, variveis aleatrias so funes, como ser visto a seguir. Uma varivel alea-
tria uma funo real. Sequncias de variveis aleatrias so sequncias de funes reais.
Convergncia de variveis aleatrias convergncia de funes reais e teoremas limite sobre
variveis aleatrias so teoremas limite sobre funes reais.
Denio 4.1.1: Seja (, A, P) um espao de probabilidade. Uma funo real X : R,
chamada de varivel aleatria se para todo Boreliano B, X
1
(B) A, onde X
1
(B) =
{ : X() B} o conjunto de elementos do espao amostral cuja imagem segundo X
est em B.
Figura 1
Notaes comumente encontradas, com os respectivos signicados:
[X = x] = { | X() = x}, B = {x},
[X x] = { | X() x}, B = (, x],
[x X y] = { | x X() y}, B = [x, y].
Dada uma varivel aleatria X, pode-se denir uma probabilidade, P
X
, no espao men-
survel (IR, B) da seguinte maneira: para todo B B, seja P
X
(B) = P(X
1
(B)). Por
68
4.2. FUNO DE DISTRIBUIO ACUMULADA 69
denio de varivel aleatria, tem-se que X
1
(B) A, ento P
X
est bem denida. P
X
satisfaz os axiomas K1, K2, e K5

de probabilidade, pois:
(K1) P
X
(B) = P(X
1
(B)) = P(A) 0.
(K2) P
X
(IR) = P(X
1
(IR)) = P() = 1.
(K5

) Suponha que B
1
, B
2
, . . . so eventos Borelianos disjuntos dois a dois. Ento,
P
X
(
n
B
n
) = P(X
1
(
n
B
n
)) = P(
n
(X
1
(B
n
))) =

n
P(X
1
(B
n
)) =

n
P
X
(B
n
).
A probabilidade P
X
dita como sendo a probabilidade induzida pela varivel aleatria
X.
4.2 Funo de Distribuio Acumulada
Para uma dada varivel aleatria X, uma maneira de descrever a probabilidade induzida P
X
utilizando sua funo de distribuio acumulada.
Denio 4.2.1: A funo de distribuio acumulada de uma varivel aleatria X, repre-
sentada por F
X
, denida por
F
X
(x) = P(X x) = P
X
((, x]), x IR.
A funo de distribuio acumulada F
X
satisfaz s seguintes propriedades:
(F1) Se x y, ento F
X
(x) F
X
(y).
x y (, x] (, y] P
X
((, x]) P
X
((, y]) F
X
(x) F
X
(y).
(F2) Se x
n
x, ento F
X
(x
n
) F
X
(x).
Se x
n
x, ento os eventos (, x
n
] so decrescentes e
n
(, x
n
] = (, x]. Logo,
pela continuidade da probabilidade, tem-se que P
X
((, x
n
]) P((, x]), ou seja,
F
X
(x
n
) F
X
(x).
(F3) Se x
n
, ento F
X
(x
n
) 0, e se x
n
, ento F
X
(x
n
) 1.
Se x
n
, ento os eventos (, x
n
] so decrescentes e
n
(, x
n
] = . Logo, pela
continuidade da probabilidade, tem-se que P
X
((, x
n
]) P(), ou seja, F
X
(x
n
) 0.
Similarmente, se x
n
, ento os eventos (, x
n
] so crescentes e
n
(, x
n
] = IR.
Logo, pela continuidade da probabilidade, tem-se que P
X
((, x
n
]) P(), ou seja,
F
X
(x
n
) 1.
Campos & Rgo
4.2. FUNO DE DISTRIBUIO ACUMULADA 70
Teorema 4.2.2: Uma funo real F satisfaz F1F3 se e somente se F uma funo de
distribuio de probabilidade acumulada.
Prova: A prova de que se F for uma funo de distribuio de probabilidade acumulada,
ento F satisfaz F1-F3 foi dada acima. A prova de que toda funo real que satisfaz F1-F3
uma funo de probabilidade acumulada est fora do escopo deste livro.
Uma funo de distribuio acumulada pode corresponder a vrias variveis aleatrias
no mesmo espao de probabilidade (, A, P). Por exemplo, seja X tal que P(X = 1) =
P(X = 1) =
1
2
. Logo, P(X = 1) = P(X = 1) =
1
2
. Portanto, X e X tm a mesma
distribuio. Consequentemente, F
X
= F
X
.
A condio F2 signica que toda funo distribuio de probabilidade acumulada F
X

continua direita. Ainda mais, como F
X
no-decrescente e possui valores entre 0 e 1,
pode-se provar que ela tem uma quantidade enumervel de descontinuidades do tipo salto.
Pela continuidade direita, o salto no ponto x igual a
F
X
(x) F
X
(x

) = F
X
(x) lim
n
F(x
1
n
)
= P
X
((, x]) lim
n
P
X
((, x
1
n
])
= lim
n
P
X
((x
1
n
, x]).
Como a sequncia de eventos (x
1
n
, x] decrescente e
n
(x
1
n
, x] = {x}, ento {x}
um Boreliano, pois limite de Borelianos, e
P
X
(x) = F
X
(x) F
X
(x

). (4.1)
Ou seja, a probabilidade da varivel aleatria X assumir o valor x igual ao salto da
funo de distribuio acumulada F
X
no ponto x. O prximo teorema indica que o conjunto
de pontos de descontinuidade de F enumervel.
Teorema 4.2.3: Seja D o conjunto de pontos de descontinuidade da funo de distribuio
F. Ento, D enumervel.
Prova: Pela monotonicidade, tem-se que para todo x IR, F(x

) F(x) F(x
+
). Logo,
x D se, e somente se, F(x
+
) > F(x

). Para n = 1, 2, 3, . . . seja
A
n
= {x : F(x
+
) F(x

) >
1
n
}.
Ento, D =

n=1
A
n
. Ser visto que todo A
n
contm menos que n pontos e, portanto,
nito, dessa forma, D ser enumervel.
Por absurdo, suponha que exista A
n
contendo n pontos. Assim, A
n
= {x
1
, x
2
, . . . , x
n
},
onde x
1
< x
2
< x
n
e
0 F(x

1
) F(x
+
1
) F(x

2
) F(x
+
2
) F(x

n
) F(x
+
n
) 1.
Campos & Rgo
4.2. FUNO DE DISTRIBUIO ACUMULADA 71
Ento,

n
k=1
[F(x
+
k
)F(x

k
)] 1. Mas por denio do conjunto A
n
, tem-se que F(x
+
i
)
F(x

i
) >
1
n
para todo x
i
A
n
. Portanto,

n
k=1
[F(x
+
k
) F(x

k
)] > n
1
n
> 1, absurdo.
Logo, A
n
contm menos que n pontos.
Exemplo 4.2.4: Este exemplo mostra como usar a funo de distribuio acumulada
para calcular probabilidades. O resultado em (b) j foi visto em 4.1. Sua reesposio aqui
tem como objetivo enfatizar a comutao do limite com a probabilidade para sequncias
monotnicas.
Lembrando que
F
X
(x) = P(X x) = P((, x]).
(a) (, b] = (, a] (a, b], a b
P((, b]) = P((, a]) + P((a, b])
P((a, b]) = P((, b]) P((, a]) = F
X
(b) F
X
(a)
P(a < X b) = F
X
(b) F
X
(a). (4.2)
(b) I
n
= {x : a
1
n
< x a +
1
n
}. Isto signica que I
1
I
2
lim
n
I
n
=

n=1
I
n
=
{a}. Sabe-se que (Captulo 1) P(limI
n
) = limP(I
n
). Portanto,
P(X = a) = P(

n=1
I
n
)
= P( lim
n
I
n
)
= lim
n
P(I
n
)
= lim
n
P(a
1
n
< X a +
1
n
)
= lim
n
(F
X
(a +
1
n
) (F
X
(a
1
n
))
= lim
n
F
X
(a +
1
n
) lim
n
F
X
(a
1
n
)
P(X = a) = F
X
(a
+
) F
X
(a

). (4.3)
A expresso 4.3 o salto da funo de distribuio no ponto a. Se X uma varivel
aleatria discreta, F
X
(a
+
) F
X
(a

) 0.
(c) (a, b) {b} = (a, b]
P((a, b)) +P({b}) = P((a, b])
P((a, b)) = P((a, b]) P(b) = F
X
(b) F
X
(a) P(X = b)
P(a < X < b) = F
X
(b) F
X
(a) P(X = b). (4.4)
O resultado em 4.4 foi obtido usando 4.2 e 4.3.
Campos & Rgo
4.3. TIPOS DE VARIVEIS ALEATRIAS 72
(d) (a, b] {a} = [a, b]
P((a, b]) + P(a) = P([a, b])
P([a, b]) = P((a, b]) + P(X = a) = F
X
(b) F
X
(a) + P(X = a)
P(a X b) = F
X
(b) F
X
(a) + P(X = a). (4.5)
O resultado em 4.5 foi obtido usando 4.2 e 4.3 .
(e) [a, b) = (a, b) {a}
P([a, b)) = P((a, b)) +P(a) = F
X
(b) F
X
(a) P(X = b) + P(X = a)
P(a X < b) = F
X
(b) F
X
(a) (P(X = b) P(X = a)). (4.6)
4.6 foi obtida a partir de 4.4.
(f) (, b] = (, b) {b}
P((, b]) = P((, b)) +P(X = b)
P((, b)) = P((, b]) P(X = b)
P(< X < b) = F
X
(b) P(X = b). (4.7)
4.3 Tipos de Variveis Aleatrias
Existem trs tipos de variveis aleatrias: discreta, contnua e singular.
4.3.1 Varivel Aleatria Discreta
Denio 4.3.1: Uma varivel aleatria X discreta se assume valores num conjunto
enumervel com probabilidade 1, ou seja, se existe um conjunto enumervel {x
1
, x
2
, . . .} IR
tal que P(X = x
i
) 0, i 1 e P(X {x
1
, x
2
, . . .}) = 1.
A funo p() denida por
p(x
i
) = P
X
({x
i
}), i = 1, 2, . . .
e
p(x) = 0, x / {x
1
, x
2
, . . .},
chamada de funo probabilidade de X. Toda funo probabilidade uma funo real e
assume valores entre 0 e 1, sendo positiva para uma quantidade enumervel de pontos e tal
que

i
p(x
i
) = 1. De modo geral escreve-se
0 p(x
i
) 1,
Campos & Rgo
4.3. TIPOS DE VARIVEIS ALEATRIAS 73

i
p(x
i
) = 1.
O conjunto de pontos
(x
i
, p(x
i
)), i = 1, 2, . . . ,
usualmente denotado na literatura por distribuio de probabilidade da varivel aleatria
X.
Para esta varivel aleatria tem-se que
F
X
(x) =

i:x
i
x
p(x
i
).
Seja p : IR [0, 1], sendo p positiva para uma quantidade enumervel de pontos
{x
1
, x
2
, . . .} e satisfazendo

i
p(x
i
) = 1 e seja
P(B) =

x
i
B
p(x
i
), B B.
Prova-se que P(B) uma probabilidade em (R, B) (P satisfaz os axiomas de Kolmogorov).
Logo, a distribuio de uma varivel aleatria discreta X pode ser determinada tanto pela
funo de distribuio acumulada F
X
quanto pela sua funo de probabilidade p.
Exemplo 4.3.2: Este exemplo mostra como calcular a funo de distribuio acumu-
lada para uma varivel aleatria discreta. Seja X assumindo os valores 0, 1, 2 com igual
probabilidade. Portanto,
x < 0 F
X
(x) = 0,
0 x < 1 F
X
(x) = P(X = 0) =
1
3
,
1 x < 2 F
X
(x) = P(X = 0) +P(X = 1) =
1
3
+
1
3
=
2
3
,
x 2 F
X
(x) = P(X = 0) +P(X = 1) +P(X = 2) = 1.
Assim,
F
X
(x) =
_

_
0, x < 0,
1
3
, se 0 x < 1,
2
3
, se 1 x < 2,
1, se x 2.
Exemplo 4.3.3: Este exemplo mostra como calcular as probabilidades nos pontos a partir
do conhecimento da funo de distribuio acumulada.
Campos & Rgo
4.3. TIPOS DE VARIVEIS ALEATRIAS 74
4.3.2 Varivel Aleatria Contnua
Denio 4.3.4: Uma varivel aleatria X contnua se existe uma funo real f
X
(x) 0
tal que
F
X
(x) =
_
x

f
X
(t)dt, x R.
A funo f
X
chamada de funo densidade de probabilidade de X. F
X
contnua e
f
X
(x) = F

X
(x).
Uma funo f(x) 0 densidade de alguma varivel aleatria se e somente se,
_

f(x)dx = 1, sendo neste caso fcil provar que a funo F denida por
_
x

f(t)dt satisfaz
s condies F1, F2, e F3. Portanto, pelo Teorema 4.2.2, F uma funo de distribuio
acumulada. Portanto, como para varivel aleatria discreta, a distribuio de uma varivel
aleatria contnua X pode ser determinada tanto pela funo de distribuio acumulada F
X
quanto pela sua funo densidade f
X
.
Uma varivel aleatria X tem densidade se F
X
a integral (de Lebesgue) de sua derivada;
sendo, neste caso, a derivada de F
X
uma funo densidade para X. Em quase todos os casos
encontrados na prtica, uma varivel aleatria X tem densidade se F
X
(i) contnua e (ii)
derivvel por partes, ou seja, se F
X
derivvel no interior de um nmero nito ou enumervel
de intervalos cuja unio IR.
Por exemplo, seja
F
X
(x) =
_
_
_
0 se x < 0,
x se 0 x < 1,
1 se x 1.
Ento X tem densidade pois F
X
contnua e derivvel em todos os pontos da reta exceto
em {0, 1}.
Quando X uma varivel aleatria contnua,
P(X < b) = F
X
(b) P(X = b)
= F
X
(b) (F
X
(b
+
) F
X
(b

))
= F
X
(b)
= P(X b).
Exemplo 4.3.5:
Exemplo 4.3.6:
4.3.3 Varivel Aleatria Singular
Denio 4.3.7: Uma varivel aleatria X singular se F
X
uma funo contnua cujos
pontos de crescimento formam um conjunto de comprimento (medida de Lebesgue) nulo.
Campos & Rgo
4.3. TIPOS DE VARIVEIS ALEATRIAS 75
Na prtica, a maioria das variveis aleatrias discreta ou contnua.
O exemplo de uma varivel aleatria singular a funo de Cantor, cuja construo
segue-se.
Exemplo 4.3.8: Seja
F
0
(x) =
_
0, x < 0,
1, x > 1.
Dividindo-se o intervalo (0, 1) nos trs subintervalos (0,
1
3
), (
1
3
,
2
3
) e (
2
3
, 1) e considerando-
se como valor de F em (
1
3
,
2
3
) a mdia dos valores de F
0
fora de (0, 1), isto ,
0+1
2
=
1
2
,
obtm-se F
1
(x):
F
1
(x) =
_
_
_
0, x < 1,
1
2
,
1
3
< x <
2
3
,
1, x > 1.
Cada tero do intervalo (0, 1) sendo dividido em trs partes equivale a dividir (0, 1) em
nove partes. Para o intervalo (
1
9
,
2
9
), o valor da F
0+
1
2
2
=
1
4
; para o intervalo (
7
9
,
8
9
), o valor
da F
1
2
+1
2
=
3
4
.
Este processo constri uma sequncia de funes F
n
(x), n = 1, 2, , cuja funo limite,
F(x), satisfaz s propriedades F1, F2, F3. Alm disso, F uma funo contnua cuja derivada
igual a zero exceto em um conjunto de pontos que tem comprimento nulo. Portanto, F
uma funo de distribuio, entretanto no nem discreta, nem contnua, uma varivel
aleatria singular.
4.3.4 Decomposio de uma Varivel Aleatria
Pode ser visto (James, 1981) que toda varivel aleatria uma combinao dos trs tipos:
discreta, contnua e singular; entretanto, as variveis aleatria que so comuns no mundo
real ou so discretas, ou contnuas, ou uma combinao entre esses dois tipos (mistas).
O exemplo a seguir mostra como decompor F em suas partes discreta, contnua e singular.
Exemplo 4.3.9: Suponha que X U[0, 1] e Y = min(X, 1/2). Note que
F
Y
(x) =
_
_
_
0 se x < 0,
x se 0 x < 1/2,
1 se x 1/2.
F
Y
tem apenas um salto em x = 1/2 e p
1
= 1/2. Logo, F
d
(x) = 0 se x < 1/2 e
F
d
(x) = 1/2 se x 1/2. Diferenciando F
Y
, tem-se
F

Y
(x) =
_
0 se x < 0 ou x > 1/2,
1 se 0 < x < 1/2.
Logo, por denio,
f(x) =
_
0 se x 0 ou x 1/2,
1 se 0 < x < 1/2.
Campos & Rgo
4.3. TIPOS DE VARIVEIS ALEATRIAS 76
Portanto,
F
ac
(x) =
_
x

f(t)dt =
_
_
_
0 se x < 0,
x se 0 x 1/2,
1/2 se x > 1/2.
Como F
d
+ F
ac
= F
Y
, tem-se que F
s
(x) = 0, x IR e no h parte singular.
Uma varivel aleatria que possui apenas partes discreta e absolutamente contnua
conhecida como uma varivel aleatria mista. Na prtica, pouco provvel que surja uma
varivel aleatria singular. Portanto, quase todas as variveis aleatrias so discretas, con-
tnuas ou mistas.
Exemplo 4.3.10: Exemplo de clculo de probabilidades com uma varivel aleatria mista.
Seja
F
X
(x) =
_

_
0, x < 1,
1
4
(x 1), se 1 x < 2,
1
2
, se 2 x < 3,
1, se x 3.
(a) P(X = 0.5) = F
X
(0.5
+
) F
X
(0.5

) = 0 0 = 0.
(b) P(X = 1.5) = F
X
(1.5
+
) F
X
(1.5

) =
1
4
(1.5 1)
1
4
(1.5 1) = 0.
(c) P(X = 2) = F
X
(2
+
) F
X
(2

) =
1
2

1
4
= 0.
(d) P(1 < X < 2) = F
X
(2) F
X
(1) P(X = 2) =
2
4
0
1
4
=
1
4
.
(e) P(1.5 X 2.5) = F
X
(2.5) F
X
(1.5) +P(X = 1.5) =
2
4

1
4
(0.5) + 0 = 0.35.
(f) P(2 X 2.5) = F
X
(2.5) F
X
(2) +P(X = 2) =
2
4

2
4
+ (
2
4

1
4
) =
1
4
.
(g) P(2 < X 3) = F
X
(3) F
X
(2) = 1
2
4
=
1
2
.
(h) P(2 X 3) = F
X
(3)F
X
(2)(P(X = 3)P(X = 2)) = 1
2
4
((1
1
2
)(
2
4

1
4
)) =
1
4
.
(i) P(X < 3.7) = F
X
(3.7) P(X = 3.7) = 1 0 = 1.
(j) P(X < 2) = F
X
(2) P(X = 2) =
2
4
(
2
4

1
4
) =
1
4
.
(k) P(X 1) = F
X
(1) = 0.
(l) P(X 3) = F
X
(3) = 1.
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 77
4.4 Funes de Variveis Aleatrias
Muitas vezes dada a distribuio de probabilidade que descreve o comportamento de uma
varivel aleatria X denida no espao mensurvel (, A), mas o interesse na descrio de
uma funo Y = H(X). Por exemplo, X pode ser uma mensagem enviada em um canal de
telecomunicaes e Y ser a mensagem recebida.
Uma pergunta inicial : se X uma varivel aleatria

X, log X, X
2
, 2X3 so variveis
aleatrias? Se sim, (o que verdade), sendo conhecida a distribuio de probabilidade de
X, como esse fato pode ser usado para encontrar a lei de probabilidade de

X, log X, X
2
ou 2X 3?
O problema determinar P(Y C), onde C um evento Boreliano. Para determinar
essa probabilidade, a imagem inversa da funo H fundamental, ou seja, a probabilidade
do evento {Y C} ser por denio igual a probabilidade do evento {X H
1
(C)},
onde H
1
(C) = {x IR : H(x) C}. Para que esta probabilidade esteja bem denida,
preciso restringir H tal que H
1
(C) seja um evento Boreliano para todo C Boreliano,
caso contrrio no possvel determinar P({X H
1
(C)}); uma funo que satisfaz esta
condio conhecida como mensurvel com respeito a B. Note que Y tambm pode ser
vista como uma funo do espao amostral , Y () = H(X()) para todo . Vista
dessa maneira Y uma varivel aleatria denida em (, A), pois para todo Boreliano
C, Y
1
(C) = X
1
(H
1
(C)) e como por suposio H
1
(C) Boreliano porque X uma
varivel aleatria, tem-se que X
1
(H
1
(C)) A e portanto satisfaz a denio de uma
varivel aleatria. A gura abaixo exibe os espaos mensurveis e as transformaes entre
eles.
Figura 2
Seja A = { : X() B}. Portanto, como j mencionado anteriormente, a
probabilidade induzida pela varivel aleatria tal que
P
X
(B) = P(X
1
(B)) = P(A).
De forma similar, sendo
B = Y
1
(C){x IR : H(x) C}
ento,
P
Y
(C) = P
H(X)
(C) = P
X
({x IR : H(x) C}) = P({ : H(X()) C}),
e assim,
P
Y
(C) = P
X
(Y
1
(C)).
Logo,
P
Y
(C) = P
X
(B) = P(A).
A funo H da varivel aleatria X dene uma varivel aleatria no espao de proba-
bilidade (IR, B, P
Y
), onde a medida de probabilidade P
Y
induzida pela varivel aleatria
Y = H(X). P
Y
est bem denida pois
Y
1
(C) = B B,
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 78
o que mostra que a imagem inversa do conjunto mensurvel C o conjunto mensurvel B.
Adicionalmente, P
Y
satisfaz os axiomas K1, K2, e K5

porque:
(K1)
P
Y
(C) = P
X
(Y
1
(C)) = P
X
(B) = P(X
1
(B)) = P(A) 0.
(K2)
P
Y
(IR) = P
X
(Y
1
(IR)) = P
X
(IR) = P(X
1
(IR)) = P() = 1.
(K5

) Sejam C
1
, C
2
, . . . , Borelianos tais que C
i
C
j
= , para todo i = j e Y
1
(C
n
) = B
n
.
Ento,
P
Y
(
n
C
n
) = P
X
(Y
1
(
n
C
n
))
= P
X
(
n
B
n
)
=

n
P
X
(B
n
)
=

n
P
X
(Y
1
(C
n
)
=

n
P
Y
(C
n
).
Os exemplos a seguir ilustram como calcular a distribuio de probabilidade de uma
funo de varivel aleatria. Ressalta-se a importncia fundamental da funo de distribuio
acumulada, F, e de grcos para visualizar as regies C e B.
Exemplo 4.4.1: X, discreta; H(X), discreta. Admita-se que X tenha os valores
possveis 1, 2, 3, . . . e suponha que P(X = n) = (1/2)
n
. Seja Y = 1 se X for par e Y = 1
se X for mpar.
Soluo: Ento,
P(Y = 1) =

n=1
(1/2)
2n
=

n=1
(1/4)
n
=
1/4
1 1/4
= 1/3.
Consequentemente,
P(Y = 1) = 1 P(Y = 1) = 2/3.
De modo geral, suponha que X assume os valores x
1
, x
2
, . . . e que H uma funo real
tal que Y = H(X) assume os valores y
1
, y
2
, . . .. Agrupando os valores que X assume de
acordo os valores de suas imagens quando se aplica a funo H, ou seja, denotando por
x
i1
, x
i2
, x
i3
, . . . os valores de X tal que H(x
ij
) = y
i
para todo j, tem-se que
P(Y = y
i
) = P(X {x
i1
, x
i2
, x
i3
, . . .}) =

j=1
P(X = x
ij
) =

j=1
p
X
(x
ij
),
ou seja, para calcular a probabilidade do evento {Y = y
i
}, acha-se o evento equivalente
em termos de X, isto , todos os valores x
ij
de X tal que H(x
ij
) = y
i
e somam-se as
probabilidades de X assumir cada um desses valores.
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 79
Exemplo 4.4.2: X, discreta; H(X), discreta. Seja X como no exemplo anterior e
H(X) = X
2
.
Soluo: O contradomnio da varivel Y , R
Y
, e as respectivas probabilidades so:
R
Y
= {0, 1, 4, . . . , n
2
, . . .},
P(Y = 0) = P(X = 0) = p
0
,
P(Y = 1) = P(X = 1) = p
1
,
P(Y = 4) = P(X = 2) = p
2
,
. . .
P(Y = n
2
) = P(X = n) = p
n
.
. . .
Exemplo 4.4.3: X, contnua; H(X), discreta. Seja f
X
(x) = 2x, 0 < x < 1 e Y = H(X)
denida por Y = 0 se X <
1
3
, Y = 1, se
1
3
X <
2
3
e Y = 2, se X
2
3
.
Soluo: Em termos de eventos equivalentes tem-se que:
C
1
= {Y = 0} B
1
= {X <
1
3
},
C
2
= {Y = 1} B
2
= {
1
3
X <
2
3
},
C
3
= {Y = 2} B
3
= {X
2
3
}.
Logo,
P(Y = 0) = P(X <
1
3
) =
_ 1
3
0
2xdx =
1
9
,
P(Y = 1) = P(
1
3
< X
2
3
) =
_ 2
3
1
3
2xdx =
3
9
,
P(Y = 2) = P(X
2
3
) =
_
1
2
3
2xdx =
5
9
,
Exemplo 4.4.4: X, contnua; H(X), contnua. Seja a densidade de X como no exemplo
anterior e Y = H(X) = e
X
.
Soluo: O evento onde a densidade de X no nula B = {0 < X < 1}.
Portanto, a densidade de Y est concentrada em {y = H(x) : x B} = {e
1
< y + 1} e
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 80
F
Y
(y) = P(Y y)
= P(e
X
y)
= P(X ln y)
= P(X ln y)
=
_
1
ln y
2xdx
= 1 (ln y)
2
f
Y
(y) =
2 ln y
y
.
Logo,
f
Y
(y) =
_
2 lny
y
, y (e
1
, 1),
0, y (e
1
, 1).
Exemplo 4.4.5: Se f
X
(x) = 1, 0 < x < 1, e zero para quaisquer outros valores, qual a
distribuio de Y = log(X)?
Soluo: Como
0 < Y < 0 < X < 1
e P(0 < X < 1) = 1, tem-se F
Y
(y) = 0, y 0. Se y > 0, ento
P(Y y) = P(log(X) y) = P(X e
y
) = 1 e
y
,
ou seja, Y Exp(1), isto , uma Exponencial (que ser vista depois) de parmetro 1.
No exemplo a seguir X contnua e H(X) contnua. A nfase deste exemplo mostrar
o cuidado na busca dos eventos equivalentes.
Exemplo 4.4.6: Seja f
X
(x) =
1
3
x
2
, 1 < x < 2 e zero para quaisquer outros valores de x.
Encontrar a funo densidade da varivel aleatria Y = X
2
.
Soluo: Portanto, como pode ser visto na gura abaixo,
Figura 3
1 < x < 1 0 < y < 1
e
1 x < 2 1 y < 4.
Ento,
F
Y
(y) = P(Y y)
= P(X
2
y)
= P(

y X

y)
= F
X
(

y) F
X
(

y) + P(X =

y)
=
_
F
X
(

y) F
X
(

y), 0 < y < 1,


F
X
(

y), 1 y < 4.
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 81
Portanto,
f
Y
(y) =
_
_
_

y
3
, y (0, 1),

y
6
, y [1, 4).
0, y (0, 4).
No caso de X e Y serem contnuas, tem-se o teorema seguinte.
Teorema 4.4.7: Seja H uma funo diferencivel, crescente ou decrescente em um dado
intervalo I, H(I) o contradomnio de H, H
1
a funo inversa de H e X uma varivel
aleatria contnua com funo densidade f
X
(x) > 0, se x I e f
X
(x) = 0, se x I. Ento,
Y = H(X) tem funo densidade de probabilidade dada por:
f
Y
(y) =
_
0, y H(I),
f
X
(H
1
(y))|
dH
1
(y)
dy
|, y H(I).
Prova:
(a) H crescente. Logo, H
1
tambm crescente em I. Portanto,
F
Y
(y) = P(Y y)
= P(H(X) y)
= P(X H
1
(y))
= F
X
(H
1
(y)).
Logo,
d
dy
F
Y
(y) =
d
dy
F
X
(H
1
(y)) =
dF
X
(H
1
(y))
dx
dx
dy
,
onde x = H
1
(y).
Mas,
d
dy
F
Y
(y) = F

Y
(y) = f
Y
(y).
Portanto,
dF
X
(H
1
(y))
dx
dx
dy
= F

X
(H
1
(y))
dH
1
(y)
dy
.
Logo,
f
Y
(y) = f
X
(H
1
(y))
dH
1
(y)
dy
, y H(I).
Campos & Rgo
4.4. FUNES DE VARIVEIS ALEATRIAS 82
(b) H decrescente em I. Ento H
1
tambm decrescente em I. Logo,
F
Y
(y) = P(Y y)
= P(H(X) y)
= P(X H
1
(y))
= 1 F
X
(H
1
(y)) +P(X = H
1
(y))
= 1 F
X
(H
1
(y)).
Porque P(X = H
1
(y)) = 0 e seguindo o procedimento visto em (a),
F

Y
(y) = F

X
(H
1
(y))
dH
1
(y)
dy
e assim
f
Y
(y) = f
X
(H
1
(y))
dH
1
(y)
dy
, y H(I).
Tambm pode-se utilizar o mtodo acima em outros casos em que a funo H no seja
nem crescente nem decrescente em I. Para tanto suponha que I possa ser dividido em uma
quantidade enumervel I
1
, I
2
, I
3
, . . . de subintervalos tal que H seja crescente ou decrescente
em cada um deles, P
X
(I
j
I
k
) = 0 e H(I
j
) = H(I
k
) para todo j = k. Neste caso, seja H
1
j
a funo inversa de H restrita ao subintervalo I
j
. Portanto,
F
Y
(y) = P(Y y)
= P(H(X) y)
=

j:H
1
j
crescente
P(X H
1
j
(y)) +

j:H
1
j
decrescente
P(X H
1
j
(y)).
Logo, pelos resultados anteriores,
f
Y
(y) =

j
f
X
(H
1
j
(y))|
d
dy
H
1
j
(y)|, y H(I).
Exemplo 4.4.8: Seja X com densidade f
X
(x) e Y = X
2
. Ento
Soluo:
F
Y
(y) = P(Y y)
= P(X
2
y)
= P(

y X

y)
= F
X
(

y) F
X
(

y) + P(X =

y)
= F
X
(

y) F
X
(

y),
Campos & Rgo
4.5. EXERCCIOS 83
porque P(X =

y) = 0. Logo,
d
dy
F
Y
(y) =
d
dy
(F
X
(

y) F
X
(

y)) =
d
dy
F
X
(

y)
d
dy
F
X
(

y).
Mas,
d
dy
F
Y
(y) = f
Y
(y),
d
dy
F
X
(

y) =
dF
X
(

y)
dx
1
dx
1
dy
, x
1
=

y,
dF
X
(

y)
dx
1
= f
X
(

y),
dx
1
dy
=
1
2

y
,
d
dy
F
X
(

y) =
dF
X
(

y)
dx
2
dx
2
dy
, x
2
=

y,
dF
X
(

y)
dx
2
= f
X
(

y),
dx
2
dy
=
1
2

y
.
Logo,
f
Y
(y) =
_
1
2

y
(f
X
(

y) + f
X
(

y)), y 0,
0, y < 0,
Alternativamente, poderia ter sudo usado o procedimento descrito anteriormente e par-
ticionar IR nos subintervalos I
1
= (, 0] e I
2
= [0, +). Note que P
X
(I
1
I
2
) = 0,
H(I
1
) = H(I
2
) = [0, +), H
1
1
(y) =

y e H
1
2
(y) =

y. Portanto,
f
Y
(y) = f
X
(

y)
1
2

y
+ f
X
(

y)
1
2

y
, y 0.
4.5 Exerccios
1. Resolva este exerccio usando um software adequado.
(a) Para cada uma das funes abaixo, faa seu grco; verique se uma funo
densidade de probabilidade para uma dada varivel aleatria X. Se for, encontre
a funo de distribuio acumulada e faa seu grco.
(a1) f
X
(x) = 6x(1 x), 0 x 1.
Campos & Rgo
4.5. EXERCCIOS 84
(a2)
f
X
(x) =
_
_
_
1 +x, 1 x 0,
1 x, 0 x 1,
0, quaisquer outros valores.
(a3) f
X
(x) = 1/(

2) exp (x
2
/2), x IR.
(a4)
f
X
(x) =
_

_
x/2, 0 x 1,
1/2, 1 x 2,
x/2 + 3/2, 2 x 3,
0, quaisquer outros valores.
(b) Seja a funo de distribuio acumulada da varivel aleatria X,
F
X
(x) =
_
_
_
0, x < 0,
(2/) sin
1
(

x), 0 x < 1,
1, x 1.
Faa o grco de F(). Determine a funo densidade de probabilidade e faa seu
grco.
2. Uma varivel aleatria contnua X tem funo densidade f
X
(x) = e
x
, x > 0 e
> 0.
(a) Determine a funo de distribuio acumulada de X.
(b) Calcule as seguintes probabilidades usando a funo encontrada no item anterior:
(b1) P(X 3).
(b2) P(X > 2).
(b3) P(X < 1).
(b4) P(X > 1).
3. Um ponto escolhido ao acaso sobre uma reta de comprimento L. Qual a proba-
bilidade de que a razo do segmento mais curto para o mais longo seja menor que
1/2?
4. Uma varivel aleatria X tem densidade f
X
() dada por
f
X
(x) =
_
_
_
x, 0 x < 0.5,
(1 x), 0.5 x < 1,
0, quaisquer outros valores.
(a) Determine o valor da constante .
(b) Sejam os eventos A = {X < 0.5}, B = {X > 0.5} e C = {0.25 < X < 0.75}.
(b1) Calcule P(A | B).
Campos & Rgo
4.5. EXERCCIOS 85
(b2) Verique se A, B e C so mutuamente independentes.
5. Um motorista tem que, obrigatoriamente, passar em 4 (e somente 4) semafros para
alcanar seu destino. Em cada um deles, independentemente, a probabilidade do carro
parar p. Seja uma varivel aleatria X, denida como sendo o nmero de semforos
que o carro passa antes de parar pela primeira vez. Estabelea a distribuio de
probabilidade de X. Prove que a expresso encontrada realmente uma distribuio
de probabilidade.
6. Em um jogo de dados, A paga R$20,00 a B e lana trs dados honestos. Se sair a face
1 em no mximo um dos dados, A ganha R$20,00 de B; se sair face 1 em dois dados
apenas, A ganha R$50,00; se sair face 1 nos trs dados, A ganha R$80,00. Determine
a distribuio de probabilidade do lucro lquido por jogada.
7. Seja uma varivel aleatria contnua X, com funo de densidade
f
X
(x) = e( | x |), com x IR e > 0.
(a) Determine a constante .
(b) Esboe o grco de f
X
(x).
(c) Determine F
X
(x).
(d) Determine m tal que P(X m) = P(X > m).
8. Suponha que a funo de distribuio acumulada para uma varivel aleatria X, F
X
(),
fosse denida por F
X
(x) = P(X < x). Usando esta denio determine as seguintes
probabilidades:
(a) P(X x).
(b) P(a X b).
(c) P(a X < b).
(d) P(a < X < b).
Sugestes: (, a] = (, a) {a}, (, a] (a, b) = (, b).
9. Seja f
U
(u) = e
u
, u 0. Mostre que f uma funo densidade. Encontre
_

0
uf
U
(u)du.
10. Suponhamos que dez cartas estejam numeradas de 1 at 10. Das dez cartas, retira-
se uma de cada vez, ao acaso e sem reposio, at retirar-se o primeiro nmero par.
Conta-se o nmero de retiradas necessrias. Exiba um bom modelo probabilstico para
este experimento.
11. Seja X uma varivel aleatria com densidade
f
X
(x) =
_
cx
2
, se 1 x 1,
0, caso contrrio.
(a) Determine o valor da constante c.
Campos & Rgo
4.5. EXERCCIOS 86
(b) Determine a funo de distribuio acumulada e esboe seu grco.
(c) Ache o valor tal que F
X
() = 1/4. ( o primeiro quartil da distribuio de X.)
(d) Ache o valor tal que F
X
() = 1/2. ( a mediana da distribuio de X.)
12. Uma varivel aleatria X tem funo distribuio
F
X
(x) =
_
_
_
1, se x > 1,
x
3
, se 0 x 1,
0, se x < 0.
Qual a densidade de X?
13. Uma varivel X tem funo de distribuio
F
X
(x) =
_

_
0, x < 0,
x
2
/2, se 0 x < 1,
3/4, se 1 x < 2,
(1/4)(x + 1), se 2 x < 3,
1, se x 3.
Determine o seguinte:
(a) P(X = 1/2);
(b) P(X = 1);
(c) P(X < 1);
(d) P(X 1);
(e) P(X > 2);
(f) P(1/2 < X < 5/2).
14. Calcule
(a) P(X > 2);
(b) P(X 0);
(c) P(X = 0);
(d) P(X < 0);
(e) P(X 0.5).
para uma varivel X que tem funo de distribuio
F
X
(x) =
_
1 0.75e
x
, se x 0,
0, se x < 0.
Campos & Rgo
4.5. EXERCCIOS 87
15. Seja a probabilidade da varivel aleatria X denida por P(A) =
_
A
f(x)dx, onde
f
X
(x) = cx/9, para 0 < x < 3. Sejam A
1
= {x | 0 < x < 1} e A
2
= {x | 2 < x < 3}.
Calcule
(a) o valor da constante c,
(b) P(A
1
),
(c) P(A
2
),
(d) P(A
1
A
2
),
(e) P(A
1
| A
2
).
16. Coloque V ou F nas sentenas abaixo:
(a) Uma varivel aleatria X s assume valores no intervalo [0, 1]. ( )
(b) Se X uma varivel aleatria contnua, ento X tambm uma varivel aleatria
discreta. ( )
(c) Se X uma varivel aleatria discreta ento X no pode ser contnua.
A recproca que verdadeira. ( )
(d) Se X uma varivel aleatria contnua, F
X
(x) =
_
x

f
X
(s)ds. ( )
(e) Se X uma varivel aleatria contnua, f
X
(f) =
d
dx
F
X
(x). ( )
(g) lim
x+
F
X
(x) = 0. ( )
(h) P(X A) =
_
A
F
X
(x)dx. ( )
(i) P(X A) =
_
A
f
X
(x)dx. ( )
17. Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecio-
nado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subsequentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quan-
tidade de informao obtida, a qual pode ser expressa como um ganho nanceiro de
c dlares. Seja T o custo lquido desse experimento. Estabelea a distribuio de
probabilidade de T.
18. Determine a densidade de Y = (b a)X +a, onde f
X
(x) = 1, se 0 < x < 1 e zero para
quaisquer outros valores.
19. Se X tem densidade f
X
(x) = e
|x|
/2, < x < +, qual a distribuio de
Y =| X |?
20. Uma varivel aleatria X tem uma densidade de probabilidade f
X
(x). Encontre a
funo densidade de probabilidade da varivel aleatria Y = aX + b, onde a e b so
constantes.
Campos & Rgo
4.5. EXERCCIOS 88
21. Uma varivel aleatria X tem uma densidade de probabilidade f
X
(x). Qual a funo
densidade de probabilidade da varivel aleatria Y =| 1 X |?
22. Uma varivel aleatria contnua X tem uma densidade de probabilidade f
X
(x). Con-
sidere a varivel Y = X. Encontre sua funo densidade f
Y
(y).
23. Uma varivel aleatria contnua X tem uma densidade de probabilidade f
X
(x). En-
contre a funo densidade f
Y
(y) do seu mdulo, Y =| X |.
24. Uma varivel aleatria X tem uma funo distribuio F
X
(x), e uma varivel aleatria
Y relaciona-se com X por Y = 2 3X. Encontre a funo distribuio F
Y
(y) da
varivel aleatria Y .
25. Dada uma varivel aleatria contnua X com funo densidade f
X
(x), encontre a dis-
tribuio da varivel aleatria
Y = sinal de X =
_
_
_
+1, se X > 0,
0, se X = 0,
1, se X < 0.
26. Uma varivel aleatria X tem uma densidade de probabilidade correspondente a reta
que passa pelos pontos (1, 0) e (1, 1), para x (1, 1), e zero fora. Uma varivel
aleatria Y relacionada a X por Y = 1 X
2
. Encontre a funo densidade f
Y
(y).
27. Uma varivel aleatria X tem densidade f
X
(x) = 1, no intervalo (0, 1) zero fora. Uma
varivel aleatria Y tem um relacionamento funcional monotonicamente crescente com
a varivel X tal que Y = (X). Encontre a funo distribuio F
Y
(y) e a funo
densidade f
Y
(y).
28. Seja X uma varivel aleatria tal que P(| X 1 |= 2) = 0. Expresse P(| X 1 | 2)
em termos da funo de distribuio F
X
.
29. Seja f
X
(x) =
1
3
, 1 < x < 2 e zero para quaisquer outros valores de X. Encontre a
funo distribuio da varivel aleatria Y = X
2
.
30. Seja X tendo funo probabilidade f
X
(x) = (
1
2
)
x
, x = 1, 2, e zero para quaisquer
outros valores de X. Encontre a funo probabilidade de Y = X
3
.
31. Seja X tendo funo probabilidade f
X
(x) = x
2
/9, 0 < x < 3, e zero para quaisquer
outros valores. Encontre a funo probabilidade de Y = X
3
.
32. Seja X tendo funo densidade f
X
(x) = 2xe
x
2
, 0 < x < , e zero para quaisquer
outros valores. Determine a densidade de Y = X
2
.
33. Seja X uma varivel aleatria contnua com funo densidade f
X
(x).
(a) Encontre a funo densidade de Y = X
2
.
(b) Se f
X
(x) = f(x), x, simplique a resposta encontrada em (a).
Campos & Rgo
4.5. EXERCCIOS 89
(c) Se f
X
(x) = 0 quando x 0, simplique a resposta encontrada em (a).
34. Uma varivel aleatria X tem funo densidade probabilidade denida por:
f
X
(x) =
_
_
_
c + x, 1 x 0,
c x, 0 x 1,
0, quaisquer outros casos.
(a) Calcule o valor da constante c.
(b) Seja o evento A = {x | 0.5 x 0.5}. Compute P(A).
(c) Encontre a funo de distribuio acumulada de X, F
X
, e usando a mesma calcule
P(X 0.5).
(d) Suponha que uma varivel Y assuma o valor 0 se X for negativa e 1, se X for
positiva ou nula. Encontre a distribuio de probabilidade dessa varivel.
Campos & Rgo
Captulo 5
Vetores Aleatrios e Funes
5.1 Introduo
Muitas vezes na vida real, o interesse na descrio probabilstica de mais de um carac-
terstico numrico de um experimento aleatrio. Por exemplo, na distribuio de alturas e
pesos de indivduos de uma certa classe. Para tanto preciso estender a denio de varivel
aleatria para o caso multidimensional.
Denio 5.1.1: Seja (, A, P) um espao de probabilidade. Uma funo

X : IR
n

chamada de um vetor aleatrio se para todo evento B Boreliano


1
de IR
n
,

X
1
(B) A.
Dado um vetor aleatrio

X, pode-se denir uma probabilidade induzida P

X
no es-
pao mensurvel (IR
n
, B
n
) da seguinte maneira: para todo B B
n
, dene-se P

X
(B) =
P(

X
1
(B)). Por denio de vetor aleatrio, tem-se que

X
1
(B) = A A, ento P

X
est
bem denida.
5.2 Funo de Distribuio Acumulada Conjunta
Para um vetor aleatrio

X, uma maneira bsica de descrever a probabilidade induzida P

X

utilizando sua funo de distribuio acumulada conjunta.
Denio 5.2.1: A funo de distribuio acumulada conjunta de um vetor aleatrio

X,
representada por F

X
ou simplesmente por F, denida por
F

X
(x) = P(B
x
) = P(X
1
x
1
, X
2
x
2
, . . . , X
n
x
n
), x IR
n
.
A funo de distribuio acumulada F

X
satisfaz s seguintes propriedades:
1
Um evento Boreliano em IR
n
se pertence a menor -lgebra que contem todas regies da seguinte
forma: B
x
= {(X
1
, X
2
, . . . , X
n
) : X
i
x
i
, 1 i n}.
90
5.2. FUNO DE DISTRIBUIO ACUMULADA CONJUNTA 91
(F1) Se x
i
y
i
, i n, ento F

X
(x) F

X
(y).
x
i
y
i
i n B
x
B
y
P(B
x
) P(B
y
) F

X
(x) F

X
(y).
(F2) F(x
1
, x
2
, . . . , x
n
) contnua a direita em cada uma das variveis. Por exemplo, se
y
m
x
1
, ento
F(y
m
, x
2
, . . . , x
n
) F(x
1
, x
2
, . . . , x
n
), quando m .
(F3a) Se para algum i n, x
i
, ento B
x
decresce monotonicamente para o conjunto
vazio . Logo, pela continuidade monotnica de probabilidade,
lim
x
i

X
(x) = 0.
(F3b) Se x
i
, ento B
x
cresce monotonicamente para o conjunto {X
1
x
1
, . . . X
i1

x
i1
, X
i+1
x
i+1
, . . . , X
n
x
n
}, ou seja a restrio em X
i
removida. Ento, pode-se
escrever
lim
x
i

X
(x) = F
X
1
,...,X
i1
,X
i+1
,...,Xn
(x
1
, . . . , x
i1
, x
i+1
, . . . , x
n
).
Portanto, a funo de distribuio acumulada conjunta de X
1
, . . . , X
n1
pode ser fa-
cilmente determinada da funo de distribuio acumulada conjunta de X
1
, . . . , X
n
fazendo x
n
. Observe que funes de distribuio acumuladas conjuntas de ordem
maiores determinam as de ordem menores, mas o contrrio no verdadeiro. Em
particular,
lim
x
F

X
(x) = 1.
A funo de distribuio acumulada de X
i
que se obtm a partir da funo acumulada
conjunta de X
1
, . . . , X
n
fazendo x
j
para j = i denominada de funo de
distribuio marginal de X
i
.
O prximo exemplo mostra que para n 2 as propriedades F1, F2, e F3 no so suci-
entes para que F seja uma funo de distribuio.
Exemplo 5.2.2: Seja F
0
: IR
2
IR uma funo denida no plano tal que F
0
(x, y) = 1
se x 0, y 0, e x + y 1, e F
0
(x, y) = 0, caso contrrio. claro que F1, F2, e F3 so
satisfeitas, mas F
0
no funo de distribuio de nenhum vetor aleatrio (X, Y ), porque
tem-se a seguinte contradio:
0 P(0 < X 1, 0 < Y 1)
= F
0
(1, 1) F
0
(1, 0) F
0
(0, 1) +F
0
(0, 0) = 1 1 1 + 0 = 1
O resultado acima vem de:
F
0
(1, 1) = P(X 1, Y 1),
Campos & Rgo
5.2. FUNO DE DISTRIBUIO ACUMULADA CONJUNTA 92
F
0
(1, 0) = P(X 1, Y 0),
F
0
(0, 1) = P(X 0, Y 1),
F
0
(0, 0) = P(X 0, Y 0),
Logo,
F
0
(1, 1) F
0
(1, 0) = P(X 1, Y 1) P(X 1, Y 0) (5.1)
= P({X 1, Y 1}) P({X 1, Y 0}) (5.2)
= P({X 1, Y 1} {X 1, Y 0}) (5.3)
= P(X 1, 0 < Y 1). (5.4)
A frmula 5.4 decorre de P(B A) = P(B) P(A), quando A B.
De forma similar
F
0
(0, 1) F
0
(0, 0) = P(X 0, Y 1) P(X 0, Y 0) = P(X 0, 0 < Y 1). (5.5)
Por m, de 5.4 e 5.5,
P(X 1, 0 < Y 1) P(X 0, 0 < Y 1) = P(0 < X 1, 0 < Y 1).
5.2.1 Vetor Aleatrio Discreto
Se

X for um vetor aleatrio discreto, ou seja assumir uma quantidade enumervel de valores
{x
1
, x
2
. . . , }, dene-se uma funo de probabilidade de massa conjunta, ou sua distribuio
de probabilidade conjunta p,
P(X
1
= x
1
, X
2
= x
2
, . . . , X
n
= x
n
) = p(x
1
, x
2
, . . . , x
n
) = p(x
i
)
tal que
p(x
i
) 0,

i=1
p(x
i
) = 1.
5.2.2 Vetor Aleatrio Contnuo
Seja

X = (X
1
, . . . , X
n
) um vetor aleatrio e F sua funo de distribuio acumulada con-
junta. Se existe uma funo f(x
1
, . . . , x
n
) 0 tal que
F(x
1
, . . . , x
n
) =
_
xn


_
x
1

f(t
1
, . . . , t
n
)dt
1
. . . dt
n
, (x
1
, . . . , x
n
) IR
n
,
ento f chamada de densidade conjunta das variveis aleatrias X
1
, . . . , X
n
, e neste caso,

X contnuo.
Similar ao caso unidimensional,

n
F(x
1
, . . . , x
n
)
x
1
, . . . , x
n
= f(x
1
, . . . x
n
).
Campos & Rgo
5.3. DISTRIBUIES MARGINAIS E CONDICIONAIS 93
5.3 Distribuies Marginais e Condicionais
Denio 5.3.1: A funo probabilidade de massa marginal ou a distribuio de probabi-
lidade marginal de X
i

p
X
i
(x
i
) =

x
1

x
i1

x
i+1

xn
p(x
1
, . . . , x
i1
, x
i+1
, . . . , x
n
).
Denio 5.3.2: A densidade marginal de X
i

f
X
i
(x
i
) =
_

f(x
1
, . . . , x
i1
, x
i+1
, . . . , x
n
)dx
1
. . . dx
i1
dx
i+1
. . . dx
n
.
A seguir ser visto como calcular probabilidades condicionais envolvendo variveis alea-
trias.
Denio 5.3.3: Sejam X e Y variveis aleatrias com distribuio de probabilidade
conjunta P(X = x
i
, Y = y
j
) = p(x
i
, y
j
), (i, j) pertencente ao contradomnio de (X,Y).
Ento, a distribuio condicional de X dada Y = y
j
, P(X = x | Y = y
j
),
P(X = x
i
| Y = y
j
) =
P(X = x
i
, Y = y
j
)
P(Y = y
j
)
=
p(x
i
, y
j
)
p
Y
(y
j
)
= p
X|Y
(x
i
|y
j
), p
Y
(y
j
) > 0. (5.6)
O leitor pode fazer uma analogia com a denio de probabilidade condicional vista
anteriormente. Facilmente observa-se que 5.6 uma probabilidade:
(i) P(X = x
i
| Y = y
j
) 0, porque quociente de probabilidades.
(ii)
P(X IR | Y = y
j
) =
P(X IR, Y = y
j
)
P(Y = y
j
)
=
P(Y = y
j
)
P(Y = y
j
)
= 1.
(iii)
P(

i=1
{X = x
i
} | Y = y
j
) =
P((

i=1
{X = x
i
}) {Y = y
j
})
P(Y = y
j
)
=
P(

i=1
({X = x
i
} {Y = y
j
}))
P(Y = y
j
)
=
P(

i=1
{X = x
i
, Y = y
j
})
P(Y = y
j
)
=

i=1
P(X = x
i
, Y = y
j
)
P(Y = y
j
)
=

i=1
P(X = x
i
| Y = y
j
).
Campos & Rgo
5.3. DISTRIBUIES MARGINAIS E CONDICIONAIS 94
Analogamente,
P(Y = y
j
| X = x
i
) =
P(X = x
i
, Y = y
j
)
P(X = x
i
)
.
Quando as variveis aleatrias X e Y so contnuas, o fato de P(Y = y) = 0, y em 5.6
torna necessria a adio de um conceito novo na denio das probabilidades condicionais.
Para resolver este caso, ser utilizado um argumento de limites. Suponha que o objetivo
seja denir P(X x|Y = y), onde Y uma varivel contnua. Por exemplo, X poderia ser
alturas de indivduos e Y seus respectivos pesos; ento {Y = y} signica que o peso est
xo e P(X x|Y = y) implica em mensurar todas as alturas menores ou iguais a x para o
peso xo em y. Deste modo, suponha que exista um intervalo I de comprimento contendo
y em seu interior. P(X x|Y = y) pode ser aproximada por
P(X x|Y I) =
P(X x, Y I)
P(Y I)
,
esta probabilidade est bem denida desde que P(Y I) > 0. Caso P(Y I) = 0,
para algum intervalo contendo y, a denio da probabilidade P(X x|Y = y) pode ser
arbitrria, pois tal valor y nunca ocorrer. Esta aproximao ser to melhor quanto menor
for . Desta forma, pode-se denir P(X x|Y = y) como sendo o limite P(X x|Y I)
quando tende a zero. Assumindo que (X, Y ) possui densidade conjunta f(x, y), tem-se:
P(X x|Y = y) = lim
0
P(X x, Y I)
P(Y I)
= lim
0
_
x

_
yI
f(x, y)dydx
_
yI
f(y)dy
.
Supondo f(x, y) contnua na regio em que y I,
P(X x|Y = y) = lim
0
_
x

f(x, y)dx
f(y)
=
_
x

f(x, y)
f(y)
dx.
Desta forma, denindo P(X x|Y = y) como a funo de distribuio acumulada
condicional de X dado Y = y, F
X|Y
(x|y), como uma densidade a derivada da distribuio
acumulada, ento,
Denio 5.3.4: A densidade condicional de X dada Y = y :
f(x | y) =
_
f(x,y)
f
Y
(y)
, (x, y) IR
2
, y, xo, e f
Y
(y) > 0,
0, quaisquer outros valores,
A expresso acima uma densidade pois:
(i) f(x | y) 0, (x, y) porque quociente de densidades.
Campos & Rgo
5.3. DISTRIBUIES MARGINAIS E CONDICIONAIS 95
(ii)
_
+

f(x | y)dx =
_
+

f(x, y)dx
f
Y
(y)
=
1
f
Y
(y)
_
+

f(x, y)dx
=
f
Y
(y)
f
Y
(y)
= 1.
De forma similar,
f(y | x) =
_
f(x,y)
f
X
(x)
, (x, y) IR
2
, x, xo, e f
X
(x) > 0,
0, quaisquer outros valores,
Exemplo 5.3.5: Determine as densidades condicionais de X dada Y e de Y dada X
quando
f(x, y) =
_
x + y, 0 x 1, 0 y 1,
0, caso contrrio.
Soluo: Obtendo as densidades marginais,
f
X
(x) =
_
1
0
(x + y)dy = x +
1
2
, se 0 x 1,
f
Y
(y) =
_
1
0
(x + y)dx = y +
1
2
, se 0 y 1.
Logo, as densidades condicionais so:
f(x|y) =
x + y
y +
1
2
, se 0 x 1, 0 y 1,
f(y|x) =
x + y
x +
1
2
, se 0 x 1, 0 y 1.
Exemplo 5.3.6: Determine as densidades condicionais de X dada Y e de Y dada X
quando
f(x, y) =
_
e
(x+y)
, x 0, y 0,
0, caso contrrio.
Soluo: Obtendo as densidades marginais,
f
X
(x) =
_

0
e
(x+y)
dy = e
x
, se x 0,
f
Y
(y) =
_

0
e
(x+y)
dx = e
y
, se y 0.
Campos & Rgo
5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS 96
Logo, as densidades marginais so:
f(x|y) = e
x
, se x 0, y 0,
f(y|x) = e
y
, se x 0, y 0.
5.4 Independncia entre Variveis Aleatrias
SejamX
1
, X
2
, . . . , X
n
variveis aleatrias denidas no mesmo espao de probabilidade (, A, P).
Informalmente, as variveis aleatrias X
i
s so independentes se, e somente se, quaisquer
eventos determinados por qualquer grupo de variveis aleatrias distintas so independen-
tes; por exemplo, [X
1
< 5], [X
2
> 9], e [0 < X
5
3] so independentes. Formalmente,
Denio 5.4.1: Um conjunto de variveis aleatrias {X
1
, . . . , X
n
} mutuamente inde-
pendente se, e somente se, para quaisquer eventos Borelianos B
1
, . . . , B
n
,
P(X
1
B
1
, . . . , X
n
B
n
) =
n

i=1
P(X
i
B
i
).
O prximo teorema estabelece trs critrios para provar que um conjunto de variveis
aleatrias mutuamente independente.
Teorema 5.4.2: As seguintes condies so necessrias e sucientes para testar se um
conjunto {X
1
, . . . , X
n
} de variveis aleatrias mutuamente independente:
(i) F

X
(x) =

n
i=1
F
X
i
(x
i
).
(ii) Se

X for um vetor aleatrio discreto,
p

X
(x) =
n

i=1
p
X
i
(x
i
).
(iii) Se

X for um vetor aleatrio contnuo,
f

X
(x) =
n

i=1
f
X
i
(x
i
), (x
1
, . . . , x
n
) IR
n
.
Prova:
(i) Se {X
1
, . . . , X
n
} so variveis aleatrias mutuamente independentes, ento
F
X
1
,X
2
,...,Xn
(x
1
, x
2
, . . . , x
n
) = P(X
1
x
1
, . . . , X
n
x
n
)
=
n

i=1
P(X
i
x
i
) =
n

i=1
F
X
i
(x
i
), (x
1
, . . . , x
n
).
A prova da sucincia foge ao escopo do livro.
Campos & Rgo
5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS 97
(ii) Se {X
1
, . . . , X
n
} so variveis aleatrias mutuamente independentes, ento
p
X
1
,X
2
,...,Xn
(x
1
, x
2
, . . . , x
n
) = P(X
1
= x
1
, . . . , X
n
= x
n
)
=
n

i=1
P(X
i
= x
i
) =
n

i=1
p
X
i
(x
i
), (x
1
, . . . , x
n
).
Reciprocamente, se a funo de probabilidade de massa conjunta fatora e se {x
i1
, x
i2
,
. . . , x
in
, . . .} so os possveis valores assumidos pela varivel aleatria X
i
, ento
P(X
1
B
1
, X
2
B
2
, . . . , X
n
B
n
) =

i:x
1i
B
1

i:x
ni
Bn
P(X
1
= x
1i
, . . . , X
n
= x
ni
)
=

i:x
1i
B
1

i:x
ni
Bn
p
X
1
,...,Xn
(x
1i
, . . . , x
ni
)
=

i:x
1i
B
1

i:x
ni
Bn
n

j=1
p
X
j
(x
ji
)
=
n

j=1
P(X
j
B
j
).
(iii) Consequncia direta de (a) e da denio de funo densidade.
Exemplo 5.4.3: Uma varivel aleatria contnua tem funo densidade conjunta f(x, y) =
15x
2
y denida no tringulo (0,0), (1,0) e (0,2). Determine as densidades marginais e verique
se X e Y so independentes.
Soluo: Obtendo as densidades marginais,
f
X
(x) =
_
22x
0
15x
2
ydy = 30x
2
(1 x
2
), se 0 x 1,
f
Y
(y) =
_ 2y
2
0
15x
2
ydx =
5y(2 y)
3
8
, se 0 y 2.
Como f(x, y) = f
X
(x)f
Y
(y), as variveis aleatrias no so independentes.
fcil observar utilizando a denio de probabilidade condicional que se X e Y so
independentes, ento para todo A e B boreliano tal que P(Y B) > 0,
P(X A|Y B) = P(X A),
ou seja, se X e Y so independentes o conhecimento do valor de Y no altera a descrio
probabilstica de X.
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 98
5.5 Funes de Vetores Aleatrios
O objetivo nesta seo , considerando o vetor aleatrio (X, Y ) onde X e Y so variveis
aleatrias denidas no mesmo espao de probabilidade (, A, P), encontrar a distribuio
de probabilidade de Z = H(X, Y ) sendo H uma funo real tal que seu domnio contm os
contradomnios de X e Y , respectivamente, R
X
e R
Y
.
Quando necessrio, os resultados sero mostrados para vetores n-dimensionais, quando
no, para vetores bidimensionais. J um bom comeo entender o procedimento para n = 2.
Considere primeiro o caso em que

X um vetor aleatrio discreto. Se

Y = H(

X) e sendo
x
i1
, x
i2
, x
i3
, . . . os valores de

X tal que H(x
ij
) = y
i
para todo j. Ento,
P(

Y = y
i
) = P(

X {x
i1
, x
i2
, x
i3
, . . .}) =

j=1
P(

X = x
ij
) =

j=1
p

X
(x
ij
),
ou seja, para calcular a probabilidade do evento {

Y = y
i
}, acha-se o evento equivalente
em termos de

X, isto , todos os valores x
ij
de

X tal que H(x
ij
) = y
i
e somam-se as
probabilidades de

X assumir cada um desses valores.
Seja agora o caso em que (X, Y ) e Z = H(X, Y ) so contnuos, xado z, a soluo geral
do problema :
F
Z
(z) = P(Z z)
= P(H(X, Y ) z)
= P((X, Y ) B
z
)
=
_ _
Bz
f(x, y)dxdy,
onde B
z
IR
2
, B
z
B
2
, isto , B
z
um elemento da -lgebra de Borel sobre IR
2
,
B
z
= {(x, y) : H(x, y) z}.
Se for possvel obter uma funo g 0 tal que
_ _
Bz
f(x, y)dxdy =
_
z

g(v)dv
ento,
g() = f
Z
(),
isto , g a densidade de Z, f
Z
().
O que ser feito a seguir como usar este resultado para encontrar a distribuio da
soma, produto e quociente de X e Y .
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 99
5.5.1 Distribuio de Z = X + Y
Seja Z = X + Y e z xo. Ento,
B
z
= {(x, y) : x + y z}
= {(x, y) : < x < +, < y z x}.
tem gura aqui Figura A
F
Z
(z) =
_ _
Bz
f(x, y)dxdy
=
_
+

(
_
zx

f(x, y)dy)dx.
Fazendo uma mudana de varivel na integral interna:
y = v x dy = dv.
Como y z x ento v x z x v z. Logo, < v z < + e portanto v
varia de a z. Assim.
F
Z
(z) =
_
+

(
_
z

f(x, v x)dv)dx
=
_
z

(
_
+

f(x, v x)dx)dv.
Logo,
f
X+Y
(z) =
_
+

f(x, z x)dx, < z < +. (5.7)


Se X e Y forem independentes 5.7 torna-se
f
X+Y
(z) =
_
+

f
X
(x)f
Y
(z x)dx, < z < +. (5.8)
De 5.8 tem-se que a densidade da soma de duas variveis aleatrias independentes a
convoluo das densidades marginais.
Se X e Y forem independentes e no-negativas 5.7 torna-se
f
X+Y
(z) =
_
z
0
f
X
(x)f
Y
(z x)dx, z > 0.
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 100
Exemplo 5.5.1: Suponha que X e Y tm densidade valendo 1 no intervalo [0,1] e que so
independentes. Encontrar a densidade de S = X + Y .
Soluo: Do problema sabe-se que
f
X
(x) = 1, 0 x 1
e
f
Y
(y) = 1, 0 y 1.
Seja S = X + Y . Logo,
f
S
(s) =
_
f
X
(x)f
Y
(s x)dx, 0 x 1, 0 y 1.
Como 0 x 1 e 0 y 1 ento
0 x 1 0 s x 1.
A Figura H ilustra as situaes possveis para s.
tem gura aqui. Figura H da prova
(a) s 1 0 0 s 1 0 s 1.
(b) 0 < s 1 < 1 s 1 0 < s 2 s 1 1 s 2.
Em (a) tem-se que 0 x s e em (b), s 1 x 1.
Logo,
f
S
(s) =
_
s
0
dx = s, 0 s 1,
f
S
(s) =
_
1
s1
dx = 2 s, 1 s 2.
Concluindo,
f
S
(s) =
_
_
_
s, 0 s 1,
2 s, 1 s 2,
0, quaisquer outros valores.
Exemplo 5.5.2: Sejam X e Y com densidade conjunta dada por
f(x, y) = exp
(x+y)
, x 0, y 0.
Encontre a densidade de V = X + Y .
Soluo:
Exemplo 5.5.3: Se as variveis aleatrias X
1
e X
2
so independentes e identicamente
distribudas com a densidade
f(t) =
_
te
t
, t 0,
0, t < 0,
encontre a densidade de S = X
1
+ X
2
.
Soluo:
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 101
5.5.2 Distribuio de Z = XY
Seja Z = XY , isto , H(X, Y ) = XY . Fixando z, ento
B
z
= {(x, y) : xy z}.
Se
x > 0, xy z y
z
x
,
x < 0, xy z y
z
x
.
Logo,
B
z
= {(x, y) : < x < 0 y
z
x
} {(x, y) : 0 < x < + y
z
x
} = B
1
B
2
.
tem 2 guras aqui Figuras B
Ento
F
Z
(z) =
_ _
Bz
f(x, y)dxdy
=
_
0

(
_
+
z
x
f(x, y)dy)dx +
_
+
0
(
_ z
x

f(x, y)dy)dx.
Fazendo uma mudana de varivel na integral interna:
y =
v
x
dy =
1
x
dv.
Substituindo o valor de y em B
1
e B
2
,
v
x

z
x
v z z v < +,
v
x

z
x
v z < v z.
Logo,
F
Z
(z) =
_
0

(
_

z
f(x,
v
x
)
1
x
dv)dx +
_
+
0
(
_
z

f(x,
v
x
)
1
x
dv)dx
=
_
0

(
_
z

(
1
x
)f(x,
v
x
)dv)dx +
_
0

(
_
z

1
x
f(x,
v
x
)dv)dx
=
_
+

(
_
z

|
1
x
| f(x,
v
x
)dx)dv
=
_
z

(
_
+

|
1
x
| f(x,
v
x
)dx)dv.
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 102
Portanto,
f
XY
(z) =
_
+

|
1
x
| f(x,
z
x
)dx, < z < +. (5.9)
Se X e Y forem independentes, de 5.9 tem-se
f
XY
(z) =
_
+

|
1
x
| f
X
(x)f
Y
(
z
x
)dx, < z < +.
Se X e Y forem independentes e no-negativas,
f
XY
(z) =
_
+
0
1
x
f
X
(x)f
Y
(
z
x
)dx, z > 0.
Exemplo 5.5.4: Seja f(x, y) = 1, 0 x 1, 0 y 1. Determinar a densidade de
Z = XY .
Soluo:
5.5.3 Distribuio de Z =
Y
X
Seja Z =
Y
X
e z xo. Logo
B
z
= {(x, y) :
y
x
z}.
Se,
x > 0,
y
x
z y xz,
x < 0,
y
x
z y xz.
Portanto,
B
z
= {(x, y) : < x < 0 y xz} {(x, y) : 0 < x < + y xz}
= B
1
B
2
.
tem 2 guras aqui Figura C
Ento,
F
z
(z) =
_ _
Bz
f(x, y)dxdy
=
_
0

(
_
+
xz
f(x, y)dy)dx +
_
+
0
(
_
xz

f(x, y)dy)dx.
Fazendo uma mudana de variveis na integral mais interna e substituindo no valor de y
em B
z
tem-se:
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 103
y = xv dy = xdv
e
xv xz v z z v < +,
xv xz v z < v z.
Assim,
F
Z
(z) =
_
0

(
_

z
xf(x, xv)dv)dx +
_
+
0
(
_
z

xf(x, xv)dv)dx
=
_
0

(
_
z

(x)f(x, xv)dv)dx +
_
+
0
(
_
z

xf(x, xv)dv)dx
=
_
+

(
_
z

| x | f(x, xv)dv)dx
=
_
z

(
_
+

| x | f(x, xv)dx)dv
Logo,
fY
X
(z) =
_
+

| x | f(x, xz)dx, < z < +.


Se X e Y forem independentes,
fY
X
(z) =
_
+

| x | f
X
(x)f
Y
(xz)dx, < z < +.
Se X e Y forem independentes e no-negativas,
fY
X
(z) =
_
+
0
xf
X
(x)f
Y
(xz)dx, z > 0.
Exemplo 5.5.5: Sejam X e Y com densidade conjunta dada por
f(x, y) = exp
(x+y)
, x 0, y 0.
Encontre a densidade de U = X/Y .
Soluo:
Exemplo 5.5.6: Duas pessoas marcam um encontro em determinado lugar entre 12:00
e 13:00. Cada uma chega, na hora marcada, ao encontro independentemente e com uma
densidade constante. Ficou acertado entre ambas que nenhuma delas esperar mais do que
15 minutos pela outra. Determinar a probabilidade de se encontrarem.
Soluo: Este problema ser resolvido de trs formas distintas. A gura a seguir ilustra a
regio de encontro, E, de ambas.
tem gura aqui Figura D
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 104
1. Usando probabilidade geomtrica.
O quadrado de vrtices (0,0), (0,1), (1,0) e (1,1) tem lado 1, consequentemente rea
S = 1. A regio do encontro tem rea 1 (
3
4
)
2
=
7
16
. Logo, a probabilidade de que
ambas se encontrem
7
16
.
2. Usando densidade conjunta.
Sejam X e Y , respectivamente, os tempos de chegadas das duas pessoas. De acordo
com os dados do problema, como entre 12:00 e 13:00 tem-se uma hora,
X U(0, 1)
e
Y U(0, 1).
Como X e Y so independentes,
f(x, y) = f
X
(x)f
Y
(y) =
_
1, 0 < x < 1, 0 < y < 1,
0, quaisquer outros valores.
tem gura aqui Figura E
A probabilidade de se encontrarem em E dada por:
P(E) =
_ _
E
f(x, y)dxdy
=
_ _
R
1
f(x, y)dxdy +
_ _
R
2
f(x, y)dxdy +
_ _
R
3
f(x, y)dxdy.
Portanto,
_ _
R
1
f(x, y)dxdy =
_ 1
4
0
(
_
x+
1
4
0
dy)dx =
3
32
,
_ _
R
2
f(x, y)dxdy =
_ 3
4
1
4
(
_
x+
1
4
x
1
4
dy)dx =
4
16
,
_ _
R
1
f(x, y)dxdy =
_
1
3
4
(
_
1
x
1
4
dy)dx =
3
32
.
Logo,
P(E) =
3
32
+
4
16
+
3
32
=
7
16
.
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 105
3. Usando funo de vetor aleatrio.
Como visto anteriormente no exemplo 5.5.1, a densidade de S = X + Y , quando
X U(0, 1) e Y U(0, 1) f
S
(s) =
_
+

f
X
(x)f
Y
(s x)dx. O problema proposto
consiste em calcular
P(| X Y |
1
4
),
assim, a distribuio de interesse em
Z = X Y.
Por simetria, fcil supor que
f
Z
(z) =
_
f
X
(x)f
Y
(x z)dx
pois z = x y y = x z.
De acordo com os dados do problema, o integrando ser no nulo quando
0 x 1 0 x z 1. (5.10)
De 5.10 tem-se que
0 x 1 z x z + 1 (5.11)
A partir de 5.11 tem-se as seguintes situaes:
tem gura aqui Figura F
(a) z 0 0 z + 1 1 z 0 1 z 0 1 z 0.
(b) 0 z 1 z + 1 0 z 1 z 0 0 z 1.
Em (a) x toma valores entre 0 e z + 1; em (b) x varia de z a 1. Logo,
f
Z
(z) =
_
z+1
0
1dx = 1 +z, 1 z 0,
f
Z
(z) =
_
1
z
1dx = 1 z, 0 z 1.
Portanto,
f
Z
(z) =
_
_
_
1 +z, 1 z 0,
1 z, 0 < z 1,
0, quaisquer outros valores.
Campos & Rgo
5.5. FUNES DE VETORES ALEATRIOS 106
fcil ver
_
1
1
f
Z
(z)dz = 1. A probabilidade pedida :
P(| X Y |
1
4
) = P(
1
4
Z
1
4
)
=
_
0

1
4
(1 +z)dz +
_ 1
4
0
(1 z)dz
=
7
16
.
5.5.4 Jacobiano de uma Funo
Os resultados vistos anteriormente sobre a distribuio da soma, produto e quociente de
variveis aleatrias tambm poderiam ter sido obtidos via Jacobiano de uma funo, como
a seguir.
Dado um conjunto de n equaes em n variveis x
1
, . . . , x
n
,
y
1
= f
1
(x
1
, ..., x
n
), . . . , y
n
= f
n
(x
1
, ..., x
n
),
a matriz Jacobiana denida por
J =
_
_
_
y
1
x
1

y
1
xn
.
.
.
.
.
.
.
.
.
yn
x
1

yn
xn
_
_
_
O determinante de J chamado de Jacobiano. Pode-se provar que o mdulo do Jacobiano
d a razo entre volumes n-dimensionais em y e x quando a maior dimenso x
i
tende a
zero. Deste modo, o mdulo do Jacobiano aparece nas mudanas de varives de integrao
em integrais mltiplas, ou seja, existe um teorema do clculo REFER que arma que se
f : G
0
G for uma bijeo entre G
0
e G, f e as derivadas parcias que aparecem na matriz
Jacobiana forem funes contnuas em G
0
, e o Jacobiano for diferente de zero para todo
x G
0
_

_
A
g(y
1
, . . . , y
n
)dy
1
dy
n
=
_

_
f
1
(A)
g(f
1
(x
1
, ..., x
n
), . . . , f
n
(x
1
, ..., x
n
))|J|dx
1
dx
n
,
para qualquer funo g integrvel em A G.
O conceito de Jacobiano ser usado para resolver o seguinte exemplo da soma de duas
variveis aleatrias.
Exemplo 5.5.7: Suponha que (X, Y ) tenha densidade conjunta f(x, y) e seja Z = X +Y .
Neste caso,
F
Z
(z) = P(Z z) = P(X + Y z) = P((X, Y ) B
z
),
onde B
z
= {(x, y) : x + y z}. Portanto,
F
Z
(z) =
_

_
zy

f(x, y)dxdy.
Campos & Rgo
5.6. APRENDENDO UM POUCO MAIS... 107
Fazendo a mudana de variveis s = x + y, t = y, que tem jacobiano igual a 1, tem-se
F
Z
(z) =
_

_
z

f(s t, t)dsdt =
_
z

f(s t, t)dtds.
Logo,
_

f(s t, t)dt a densidade da soma Z = X + Y , ou seja,


f
Z
(z) =
_

f(z t, t)dt =
_

f(s, z s)ds,
onde foi feita a troca de variveis s = z t para obter a ltima expresso.
5.6 Aprendendo um pouco mais...
O mtodo do Jacobiano descrito a seguir para funes mais gerais H.
Suponha que G
0
IR
n
, G IR
n
sejam regies abertas, e que H : G
0
G seja uma
bijeo entre G
0
e G. Logo, existe a funo inversa H
1
em G, de modo que

X = H
1
(

Y ).
Suponha ainda que f a densidade conjunta de

X e que P(

X G
0
) = 1. Se as derivadas
parciais de H
1
existirem e o Jacobiano J de H
1
for diferente de zero para todo y G,
utiliza-se o teorema da mudana de variveis e obter que para B G, B Boreliano, tem-se
P(

Y B) = P(

X H
1
(B)) =
_

_
H
1
(B)
f(x
1
, . . . , x
n
)dx
1
dx
n
=
_

_
B
f(H
1
1
(y
1
, . . . , y
n
), . . . , H
1
n
(y
1
, . . . , y
n
))|J|dy
1
dy
n
.
Como P(

Y G) = P(

X H
1
(G)) = P(

X G
0
) = 1, ento, para todo Boreliano B
no IR
n
,
P(

Y B) = P(

Y BG) =
_

_
BG
f(H
1
1
(y
1
, . . . , y
n
), . . . , H
1
n
(y
1
, . . . , y
n
))|J|dy
1
dy
n
.
Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
f(H
1
1
(y
1
, . . . , y
n
), . . . , H
1
n
(y
1
, . . . , y
n
))|J| para y G, e zero no caso contrrio. Portanto,
pela denio de densidade,
f

Y
(y
1
, . . . , y
n
) =
_
f(H
1
1
(y
1
, . . . , y
n
), . . . , H
1
n
(y
1
, . . . , y
n
))|J|, se y G,
0, caso contrrio.
Observaes
(i) Note que J o Jacobiano da funo inversa H
1
. Em alguns casos pode ser til obter
J a partir do Jacobiano J

da funo H atravs da relao J =


1
J

|
x=H
1
( y)
.
Campos & Rgo
5.6. APRENDENDO UM POUCO MAIS... 108
(ii) Para obter a distribuio de

Y = H(

X) quando a dimenso de

Y menor que a
dimenso de

X muitas vezes possvel denir outras variveis aleatrias Y

1
, . . . , Y

m
,
utilizar o mtodo do Jacobiano para determinar a densidade conjunta de

Y , Y

1
, . . . , Y

m
e, nalmente, obter a densidade marginal conjunta de

Y . Considere o seguinte exemplo:
Exemplo 5.6.1: Suponha que X
1
, X
2
tem densidade conjunta dada por f(x, y) e que
o objetivo seja a distribuio de Y
1
= X
2
1
+ X
2
. Como esta no uma transformao
1-1, ela no possui inversa. Denindo uma nova varivel Y
2
= X
1
de modo que a
funo (Y
1
, Y
2
) = H(X
1
, X
2
) = (X
2
1
+X
2
, X
1
) possua uma funo inversa diferencivel,
(X
1
, X
2
) = H
1
(Y
1
, Y
2
) = (Y
2
, Y
1
Y
2
2
). Deste modo,
J = det
_
x
1
y
1
x
1
y
2
x
2
y
1
x
2
y
2
_
=
_
0 1
1 2y
2
_
= 1
Ento, f
Y
1
,Y
2
(y
1
, y
2
) = f(y
2
, y
1
y
2
2
). Finalmente, para encontrar f
Y
1
integra-se sobre
todos os possveis valores da varivel Y
2
introduzida:
f
Y
1
(y
1
) =
_

f(y
2
, y
1
y
2
2
)dy
2
.
(iii) Pode-se utilizar o mtodo do Jacobiano em outros casos em que a funo H no
1-1. Para tanto, suponha que G, G
1
, . . . , G
k
sejam subregies abertas do IR
n
tais que
G
1
, . . . , G
k
sejam disjuntas e P(

X
k
i=1
G
i
) = 1, tais que a funo H|
G
l
, a restrio
de H a G
l
, seja um correspondncia 1-1 entre G
l
e G, para l = 1, . . . , k. Suponha que
para todo l, a funo inversa de H|
G
l
satisfa as hipteses do caso anterior, e seja J
l
o
Jacobiano da inversa de H|
G
l
. Pode-se provar que
f

Y
(y
1
, . . . , y
n
) =
_
k
l=1
f(H|
1
G
l
(y
1
, . . . , y
n
))|J
l
|, se y G,
0, caso contrrio.
Para a utilizao do mtodo do jacobiano, foi necessrio assumir que o vetor

X possua
densidade conjunta. Na prxima seo ser visto como estender este mtodo para um caso
mais geral.
5.6.1 Extenso do Mtodo Jacobiano para o Clculo de Densidades
de Funes de Vetores Aleatrios Quaisquer
A extenso supe apenas que existe pelo menos uma varivel no vetor

X que absolutamente
contnua dado os valores das demais variveis em

X.
Para um dado vetor z IR
m
, sejam G
0
e G
z
regies abertas do IR
n
, e g : G
0
{z}
G
z
{z} uma funo bijetiva. Seja f

X|

Z
a densidade condicional conjunta do vetor aleatrio

X = (X
1
, . . . , X
n
) dado o vetor aleatrio

Z = (Z
1
, . . . , Z
m
), onde P((X
1
, . . . , X
n
) G
0
|

Z =
Campos & Rgo
5.6. APRENDENDO UM POUCO MAIS... 109
z) = 1. No assume-se qualquer hiptese sobre o tipo do vetor

Z, o qual pode ter partes
discreta, contnua ou singular diferentes de zero.
Sejam Y
1
, . . . , Y
n
variveis obtidas a partir de funes dos vetores

X e

Y , i.e., Y
i
=
g
i
(X
1
, . . . , X
n
, Z
1
, . . . , Z
m
), i = 1, 2, . . . , n. Portanto, existe funo inversa h = g
1
denida
em G
z
{z}, onde
X
1
= h
1
(Y
1
, . . . , Y
n
, z
1
, . . . , z
m
), . . . , X
n
= h
n
(Y
1
, . . . , Y
n
, z
1
, . . . , z
m
),
e h
i
(Y
1
, . . . , Y
n
, z
1
, . . . , z
m
) = z
i
, para i {n + 1, n + 2, . . . , n + m}.
Suponha que existam as derivadas parciais
X
i
Y
j
=
h
i
(Y
1
, . . . , Y
n
, z
1
, . . . , z
m
)
Y
j
,
para i, j {1, . . . , n} e que elas sejam contnuas em G
z
{z}. Dene-se o jacobiano
condicional dado

Z = z como J(

X,

Y |

Z = z) pelo determinante:
J(

X,

Y |

Z = z) = det
_
_
_
X
1
Y
1

X
i
Yn
.
.
.
.
.
.
Xn
Y
1

Xn
Yn
_
_
_
Suponha que J(

X,

Y |

Z = z) seja diferente de zero para todo



Y G
z
. Ento para B
G
z
, B boreliano, seja h(B{z}) = {(x
1
, . . . , x
n
) : para algum y B, x
i
= h
i
(y, z) para todo i =
1, . . . , n}. Utilizando o teorema de mudana de variveis, tem-se
P(

Y B|

Z = z) = P(

X h(B {z})|

Z = z)
=
_

_
h(B{z})
f

X|

Z
(x
1
, . . . , x
n
|z)dx
1
dx
n
=
_

_
B
f

X|

Z
(h
1
(y, z), . . . , h
n
(y, z)|z)|J(x, y|

Z = z)|dy
1
dy
n
.
Como P(

Y G
z
|

Z = z) = P(

X h(G
z
{z})|

Z = z) = P(

X G
0
|

Z = z) = 1, tem-se
que para todo boreliano B no IR
n
,
P(

Y B|

Z = z) = P(

Y B G
z
|

Z = z)
=
_

_
BG
z
f

X|

Z
(h
1
(y, z), . . . , h
(
n
y, z)|z)|J(x, y|

Z = z)|dy
1
dy
n
.
Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
f

X|

Z
(h
1
(y, z), . . . , h
n
(y, z)|z)|J(x, y|

Z = z)| para y G
z
, e zero, caso contrrio. Portanto,
pela denio de densidade condicional:
Campos & Rgo
5.6. APRENDENDO UM POUCO MAIS... 110
f

Y |

Z
(y
1
, . . . , y
n
|z)
=
_
f

X|

Z
(h
1
(y, z), . . . , h
n
(y, z)|z)|J(x, y|

Z = z)|, se y G
z
,
0, caso contrrio.
A m de se obter a densidade incondicional do vetor

Y , calcula-se a esperana
2
da
densidade condicional f

Y |

Z
com respeito a distribuio do vetor aleatrio

Z. Portanto,
f

Y
(y) =
_
f

Y |

Z
(y
1
, . . . , y
n
|z)dF

Z
(z).
No caso particular em que

Z for um vetor aleatrio com densidade conjunta f

Z
,
f

Y
(y) =
_

_
f

Y |

Z
(y
1
, . . . , y
n
|z)f

Z
(z)dz
1
dz
m
,
e, no caso particular em que

Z for um vetor aleatrio discreto com funo probabilidade
de massa conjunta p

Z
,
f

Y
(y) =

z
f

Y |

Z
(y
1
, . . . , y
n
|z)p

Z
(z).
Exemplo 5.6.2: Suponha que X
1
uma varivel aleatria discreta que assume os valores
10, 15, 20 com probabilidades 1/4, 1/2, e 1/4, respectivamente. Sejam ainda X
2
e X
3
variveis
aleatrias que so condicionalmente independentes dado X
1
e com distribuies condicionais
X
2
|X
1
= k Exp(k) e X
3
|X
1
= k Exp(2k). Seja Y = X
2
1
+ X
2
2
+ X
2
3
e Z = arctg(
X
2
X
3
).
Determinar a densidade conjunta de (Y, Z).
Soluo: A densidade condicional conjunta de (X
2
, X
3
)|X
1
= k dada por
2k
2
e
kx
2
2kx
3
U(x
2
)U(x
3
). Tem-se que X
1
= k, P((Y, Z) [k
2
, ) [0, /2]) = 1, X
2
=
(Y k
2
)senZ e X
3
= (Y k
2
) cos Z. Portanto, o Jacobiano condicional dado que X
1
= k
dado por:
J((X
2
, X
3
), (Y, Z)|X
1
= k) = det
_
senZ (Y k
2
) cos Z
cos Z (Y k
2
)senZ
_
= (Y k
2
).
Assim, a densidade condicional de (Y, Z) dado que X
1
= k dada por:
f
Y,Z|X
1
(y, z|k)
=
_
f
X
2
,X
3
|X
1
((y k
2
)senz, (y k
2
) cos z|k)(y k
2
), se (y, z) [k
2
, ) [0, /2),
0, caso contrrio.
=
_
2k
2
e
k(yk
2
)(senz+2 cos z)
, se (y, z) [k
2
, ) [0, /2),
0, caso contrrio.
2
este coneito ser dado no prximo captulo, mas nesta seo ...
Campos & Rgo
5.7. EXERCCIOS 111
Calculando a esperana em termos da distribuio de X
1
, tem-se:
f
Y,Z
(y, z) = P(X
1
= 10)f
Y,Z|X
1
(y, z|10)
+P(X
1
= 15)f
Y,Z|X
1
(y, z|15) +P(X
1
= 20)f
Y,Z|X
1
(y, z|20),
ou seja,
f
Y,Z
(y, z)
=
_

_
1
4
(200e
10(y100)(senz+2 cos z)
), se (y, z) [100, 225) [0, /2),
1
4
(200e
10(y100)(senz+2 cos z)
)+
+
1
2
(450e
15(y225)(senz+2 cos z)
), se (y, z) [225, 400) [0, /2),
1
4
(200e
10(y100)(senz+2 cos z)
) +
1
2
(450e
15(y225)(senz+2 cos z)
)+
+
1
4
(800e
20(y400)(senz+2 cos z)
), se (y, z) [400, ) [0, /2),
0, caso contrrio.
Observaes:
(i) No desenvolvimento na seo anterior, para obter a distribuio de

Y = g(

X,

Z) assumiu-
se que o vetor

Y tem dimenso igual a dimenso do vetor

X. Quando a dimenso de

Y
menor que a dimenso de

X, o tratamento anlogo ao caso da utilizao do mtodo
do Jacobiano para vetores absolutamente contnuos, ou seja, muitas vezes possvel
denir outras variveis aleatrias auxiliares Y

1
, . . . , Y

m
, utilizar a extenso do mtodo
do Jacobiano para determinar a densidade condicional conjunta de

Y , Y

1
, . . . , Y

m
dado

Z e, nalmente, obter a densidade marginal condicional conjunta de



Y dado

Z.
(ii) Tambm pode-se utilizar o mtodo do Jacobiano em outros casos em que a funo g no
bijetiva. Para tanto, dado que

Z = z, suponha que G
z
, G
z
1
, . . . , G
z
k
sejam subregies
abertas do IR
n
tais que G
z
1
, . . . , G
z
k
sejam disjuntas e P((

Z) (
k
i=1
G
z
i
) {z}) = 1,
tais que a funo g|
G
z
l
, a restrio de g a G
z
l
seja bijetiva entre G
z
l
e G
z
, para l = 1, . . . , k.
Suponha que para todo l, a funo inversa de g|
G
z
l
satisfaa as hipteses do caso
anterior, e seja J
z
l
o Jacobiano condicional dado que

Z = z da inversa de g|
G
z
l
. Pode-se
provar que
f

Y |

Z
(y
1
, . . . , y
n
|z) =
_

k
l=1
f

X|

Z
(g|
1
G
z
l
(y
1
, . . . , y
n
, z)|z)|J
z
l
|, se y G
z
,
0, caso contrrio.
5.7 Exerccios
1. Suponha que X seja uma varivel aleatria contnua com funo densidade de proba-
bilidade
f(x) =
_
e
x
, x > 0
0, x 0.
Para b > 0 real, determine:
Campos & Rgo
5.7. EXERCCIOS 112
(a) F(x | 0 < X < b) = P(X x | 0 < X < b), para todo x real.
(b) f(x | 0 < X < b), a funo densidade condicional de X, dado que X (0, b).
2. Um assoalho feito de quadrados de lado l. Joga-se uma agulha de comprimento
a < l. Determine a probabilidade de que a agulha intercepte dois lados adjacentes de
um quadrado desse assoalho. (proposto por Francisco de Assis L. Filho)
3. Sejam = {
1
,
2
,
3
} e P(
1
) = P(
2
) = P(
3
) = 1/3. Denindo X, Y e Z como se
segue:
X(
1
) = 1, X(
2
) = 2, X(
3
) = 3,
Y (
1
) = 2, Y (
2
) = 3, Y (
3
) = 1,
Z(
1
) = 3, Z(
2
) = 1, Z(
3
) = 2,
mostre que estas trs variveis aleatrias tm a mesma distribuio de probabilidade.
Encontre a distribuio de probabilidade de X + Y , Y + Z e X + Z.
4. Suponha que X uma varivel aleatria assumindo os valores 3, 1, 0, 1, 2, 3, 5, 8
com as respectivas probabilidades 0.1, 0.2, 0.15, 0.2, 0.1, 0.15, 0.05, 0.05. Determine
as probabilidades de:
(a) X ser negativa.
(b) P(X = 3 | X 0).
(c) P(X 3 | X > 0).
5. Considere a varivel aleatria bidimensional (X, Y ) uniformemente distribuda na re-
gio poligonal T de vrtices (-2,0), (2,0), (1,1) e (-1,1).
(a) Determine a funo de densidade de probabilidade conjunta f(x, y).
(b) Determine a funo de densidade de probabilidade marginal f
X
(x).
(b) Determine a funo de densidade de probabilidade marginal f
Y
(y).
(d) Verique se X e Y so variveis aleatrias independentes.
6. Considere duas variveis aleatrias X e Y com distribuio de probabilidade conjunta
uniforme na regio triangular tendo vrtices nos pontos (0,0), (0,1) e (1,0).
(a) Escreva a expresso da densidade conjunta.
(b) Determine as densidades marginais.
(c) X e Y so independentes?
7. Duas mensagens que esto sendo transmitidas, independentemente uma da outra, po-
dem ser distorcidas ou no. A probabilidade do evento A = {uma mensagem distorcida}
para a primeira mensagem p
1
e para a segunda p
2
. Seja um sistema de variveis ale-
atrias (X, Y ) denido como se segue:
Campos & Rgo
5.7. EXERCCIOS 113
X =
_
1, se a primeira mensagem distorcida,
0, se a primeira mensagem no distorcida.
Y =
_
1, se a segunda mensagem distorcida,
0, se a segunda mensagem no distorcida.
(X e Y so os indicadores do evento A).
(a) Encontre a distribuio de probabilidade conjunta do par de variveis aleatrias
(X, Y ).
(b) Encontre a funo distribuio de probabilidade acumulada F(x, y).
8. Sejam duas variveis aleatrias independentes X e Y , cada uma das quais com distri-
buio exponencial com diferentes parmetros. Escreva expresses para
(a) a funo densidade conjunta f(x, y) e
(b) a funo distribuio conjunta F(x, y).
9. Um sistema de variveis aleatrias (X, Y ) tem funo densidade conjunta f(x, y). Ex-
presse as seguintes probabilidades em termos de f(x, y):
(a) {X > Y };
(b) {X >| Y |};
(c) {| X |> Y };
(d) {X Y > 1}.
10. Um sistema de variveis aleatrias (X, Y, Z) tem uma densidade conjunta f(x, y, z).
Escreva expresses para:
(a) as densidades f
X
(x), f
Y
(y)
(b) a densidade conjunta f
Y,Z
(y, z) do vetor aleatrio (X, Z);
(c) a densidade condicional f
Y,Z
(y, z | x);
(d) a densidade condicional f
Y
(y | x, z);
(e) a funo de distribuio conjunta F(x, y, z);
(f) a funo de distribuio F
X
(x) da varivel aleatria X;
(g) a funo de distribuio F(x, y) do vetor (X, Y ).
11. Um sistema de variveis aleatrias (X, Y, Z) se distribui com uma densidade constante
no interior de uma bola de raio r. Encontre a probabilidade de que o ponto aleatrio
(X, Y, Z) caia numa bola concntrica de raio r/2.
Campos & Rgo
5.7. EXERCCIOS 114
12. Seja o vetor aleatrio (X, Y ). Sabe-se que a varivel aleatria X segue uma distribuio
exponencial com parmetro . Para um dado X = x > 0, a varivel aleatria Y
tambm segue uma distribuio exponencial com parmetro x.
(a) Escreva a densidade conjunta f(x, y) de X e Y .
(b) Encontre a densidade de Y .
(c) Encontre a densidade condicional f
X|Y
(x | y).
13. Duas pessoas marcam um encontro em um determinado lugar, entre 12:00 e 13:00
horas. Cada uma chega ao local do encontro independentemente e com uma densidade
de probabilidade constante no intervalo de tempo assinalado. Encontre a probabilidade
de que a primeira pessoa espere no menos que meia hora.
14. Dadas duas variveis aleatrias X e Y com uma densidade conjunta f(x, y), determine:
(a) a funo densidade do mximo das duas variveis, Z = max{X, Y };
(b) a funo densidade do mnimo das duas variveis, Z = min{X, Y };
(c) a funo densidade do mximo o do mnimo de vrias variveis aleatrias.
15. Sejam X e Y variveis aleatrias discretas e sejam g e h funes tais que satisfaam a
identidade P(X = x, Y = y) = g(x)h(y).
(a) Expresse P(X = x) em termos de g e h.
(b) Expresse P(Y = y) em termos de g e h.
(c) Mostre que (

x
g(x))(

y
h(y)) = 1.
(d) Mostre que X e Y so independentes.
16. Sejam X
1
e X
2
duas determinaes independentes da varivel aleatria X. Encontre
a densidade da varivel aleatria Z = X
1
/X
2
.
17. Suponha que as dimenses X e Y de uma chapa retangular de metal possam ser consi-
deradas variveis aleatrias contnuas independentes com densidades, respectivamente:
f
X
(x) =
_
_
_
x 1, 1 < x 2,
x + 3, 2 < x < 3,
0, quaisquer outros casos.
f
Y
(y) =
_
1/2, 2 < y < 4,
0, quaisquer outros casos.
Encontre a densidade da rea da chapa, A = XY .
18. Ao mensurar-se T, a durao da vida de uma pea, pode-se cometer um erro, o qual
se pode admitir ser uniformemente distribudo sobre (-0.01,0.01). Por isso, o tempo
registrado (em horas) pode ser representado por T + X, onde T, tem uma distribui-
o exponencial com parmetro 0.2 e X tem a distribuio uniforme descrita acima.
Determine a densidade de T + X, quando T e X forem independentes.
Campos & Rgo
5.7. EXERCCIOS 115
19. Sejam T
1
e T
2
variveis aleatrias independentes com distribuio exponencial de pa-
rmetros
1
e
2
, respectivamente. Encontre a densidade de M = max{T
1
, T
2
} e de
K = min{T
1
, T
2
}.
20. As variveis aleatrias X
i
, i = 1, , n so mutuamente independentes e seguem uma
lei de Poisson com parmetros
i
. Mostre que sua soma tambm segue uma distribuio
de Poisson, onde o parmetro a soma dos parmetros.
21. Sejam X
1
e X
2
amostras aleatrias de uma distribuio uniforme no intervalo (1,10).
Encontre a densidade de Y = X
1
X
2
. Mostre que P(Y A) >
1
9
onde A = {y | 1 <
y < 2} {y | 10 < y < 20}.
Campos & Rgo
Captulo 6
Esperana e outros Momentos
6.1 Deni73o da Esperan7a
O conceito de esperana ou valor esperado de uma varivel aleatria X, ou a mdia
to antigo quanto o prprio conceito de probabilidade. Na verdade, at possvel denir
probabilidade em termos de esperana, mas esta no uma maneira comum de se apresentar
a teoria. As seguintes podem ser interpretaes da esperana:
(a) Parmetro m de uma medida de probabilidade, funo de distribuio, ou funo pro-
babilidade de massa, tambm conhecido como mdia.
(b) Operador linear em um conjunto de variveis aleatrias que retorna um valor tpico da
varivel aleatria interpretado como uma medida de localizao da varivel aleatria.
(c) Mdia do resultado de repetidos experimentos independentes no longo prazo.
(d) Preo justo de um jogo com pagamentos descritos por X.
A denio de esperana pode ser motivada considerando o clculo do resultado mdio
de 1000 lanamentos de um dado. Uma maneira de calcular este resultado mdio seria somar
todos os resultados e dividir por 1000. Uma maneira alternativa seria calcular a frao p(k),
k = 1, . . . , 6 de todos os lanamentos que tiveram resultado igual a k e calcular o resultado
mdio atravs da soma ponderada:
1p(1) + 2p(2) + 3p(3) + 4p(4) + 5p(5) + 6p(6).
Quando o nmero de lanamentos torna-se grande as fraes de ocorrncia dos resultados
tendem probabilidade de cada resultado.
Em geral, dene-se a esperana de uma varivel discreta como uma soma ponderada onde
as probabilidades so os pesos de ponderao.
Denio 6.1.1: Se X uma varivel aleatria discreta com valores {x
1
, x
2
, x
3
, . . .} e
probabilidades {p
1
, p
2
, p
3
, . . .}, respectivamente, ento sua esperana ,
116
6.2. ESPERANA DE FUNES DE VARIVEIS ALEATRIAS 117
E(X) =

i
x
i
p
i
,
desde que

i
| x
i
| p
i
< . Como p
i
= P(X = x
i
), ento
E(X) =

i
x
i
P(X = x
i
).
Exemplo 6.1.2: Considere uma varivel aleatria X tal que: P(X = 1) = 0.25, P(X =
0) = 0.5 e P(X = 2) = 0.25. Ento,
E(X) = 1(0.25) + 0(0.5) + 2(0.25) = 0.25.
Exemplo 6.1.3: Seja uma varivel aleatria X tal que: P(X = a) = P(X = a) = 1/2.
Ento,
E(X) = a(0.5) +a(0.5) = 0.
Note ento que muitas variveis aleatrias diferentes podem ter o mesmo valor esperado
ou esperana. ( s variar o valor de a no exemplo anterior.)
Exemplo 6.1.4: Se X {1, 2, . . . , n} for uma varivel aleatria com distribuio de
probabilidade aleatria com parmetro n, sua esperana dada por:
E(X) =
n

k=1
kp(k) =
n

k
k
1
n
=
1
n
n

k
k =
1
n
n(n + 1)
2
=
n + 1
2
.
Denio 6.1.5: Se X uma varivel aleatria contnua com densidade f
X
(x) ento,
E(X) =
_
+

xf
X
(x)dx
se
_
+

| x | f
X
(x)dx < .
Exemplo 6.1.6: Se f
X
(x) =
1
2
, 2 < x < 4, ento
E(X) =
_
4
2
x
1
2
dx = 3.
6.2 Esperana de Funes de Variveis Aleatrias
Se X for uma varivel aleatria e se Y = H(X), ento Y tambm ser uma varivel aleatria.
Consequentemente, pode-se calcular E(Y ). Existem duas maneiras equivalentes de calcular
E(Y ), quer a varivel seja discreta, quer seja contnua: (i) primeiro, encontrar a lei de
probabilidade da varivel Y = H(X) pelos mtodos j vistos anteriormente para, em seguida,
calcular a esperana da varivel Y ; (ii) calcular a esperana de Y diretamente usando a funo
H(X). Isto ser visto a seguir, inicialmente no caso discreto, a seguir, no contnuo.
Campos & Rgo
6.2. ESPERANA DE FUNES DE VARIVEIS ALEATRIAS 118
6.2.1 Caso Discreto
Denio 6.2.1: Seja X uma varivel aleatria discreta e seja Y = H(X). Se Y assumir
os seguintes valores y
1
, y
2
, . . . e se p(y
i
) = P(Y = y
i
), dene-se:
E(Y ) =

i=1
y
i
p(y
i
).
Exemplo 6.2.2:
Conforme visto no captulo anterior pode-se determinar as probabilidades p(y
i
) dado que
sabe-se a distribuio de X. No entanto, possvel encontrar E(Y ) sem, preliminarmente,
encontrar a distribuio de probabilidade de Y , partindo-se apenas do conhecimento da
distribuio de probabilidade de X, conforme mostra o seguinte teorema.
Teorema 6.2.3: Seja X uma varivel aleatria discreta assumindo os valores x
1
, x
2
, . . . e
seja Y = H(X). Se p(x
i
) = P(X = x
i
), ento
E(Y ) = E(H(X)) =

i=1
H(x
i
)p(x
i
).
Prova: Reordenando o somatrio

i=1
H(x
i
)p(x
i
), e agrupando os termos onde x
i
tem a
mesma imagem de acordo com a funo H, ou seja, sejam x
i1
, x
i2
, . . ., todos os valores x
i
tal
que H(x
ij
) = y
i
para j 1, onde y
1
, y
2
, . . . so os possveis valores de Y , tem-se,

i=1
H(x
i
)p(x
i
) =

i=1

j=1
H(x
ij
)p(x
ij
) =

i=1
y
i

j=1
p(x
ij
) =

i=1
y
i
p(y
i
) = E(Y ).
Exemplo 6.2.4:
Este resultado pode ser estendido para o caso de uma funo real de um vetor aleatrio.
Neste caso, se Y = H(

X), ento
E(Y ) =

i
H( x
i
)p

X
( x
i
),
em que os x
i
so os valores assumidos pelo vetor aleatrio

X.
Exemplo 6.2.5:
Campos & Rgo
6.3. PROPRIEDADES DA ESPERANA 119
6.2.2 Caso Contnuo
Denio 6.2.6: Seja X uma varivel aleatria contnua e Y = H(X). Ento,
E(Y ) =
_
+

yf
Y
(y)dy,
desde que
_
+

| y | f
Y
(y)dy < .
Exemplo 6.2.7:
A prova do teorema a seguir omitida desde que foge ao escopo do livro.
Teorema 6.2.8: Seja X uma varivel aleatria contnua, Y = H(X), ento
E(Y ) =
_
ydF
Y
(y) =
_
H(x)dF
X
(x),
desde que estas integrais existam.
Exemplo 6.2.9:
Uma frmula anloga tambm vlida quando funes de vetores aleatrios so consi-
derados..
Teorema 6.2.10: Seja

X um vetor aleatrio e Y = H(

X) uma varivel aleatria. Ento,


E(Y ) =
_
ydF
Y
(y) =
_
HdF

X
.
Exemplo 6.2.11:
6.3 Propriedades da Esperana
As seguintes propriedades so aplicaes imediatas da denio de esperana:
(i) P(X = c) = 1 E(X) = c.
(ii) P(X 0) = 1 E(X) 0.
(iii) E(aX) = aE(X), onde a um nmero real qualquer.
Esta propriedade segue facilmente da expresso da esperana de uma funo de varivel
aleatria.
Campos & Rgo
6.3. PROPRIEDADES DA ESPERANA 120
(iv) E(X + Y ) = E(X) + E(Y ).
No caso discreto,
E(X + Y ) =

j
(x
i
+ y
j
)p(x
i
, y
j
) =

i
x
i

j
p(x
i
, y
j
) +

j
y
j
p(x
i
, y
j
)
=

i
x
i
p(x
i
) +

j
y
j

i
p(x
i
, y
j
) = E(X) +

j
y
j
p(y
j
) = E(X) + E(Y ).
No caso geral contnuo,
E(X + Y ) = E((X, Y )) =
_ _
(x + y)dF
X,Y
(x, y),
e pela linearidade da integral,
E(X + Y ) =
_ _
xdF
X,Y
(x, y) +
_ _
ydF
X,Y
(x, y) = E(X) + E(Y ).
(v) E(

n
i
a
i
X
i
) =

n
i
a
i
E(X
i
).
Para provar esta propriedade basta usar as duas ltimas propriedades e induo ma-
temtica.
(vi) P(X Y ) = 1 E(X) E(Y ).
Esta segue das Propriedades (ii) e (v), pois
P(X Y ) = P(X Y 0),
o que, pela Propriedade (ii), implica que E(X Y ) 0. Pela Propriedade (v),
E(X Y ) = E(X) E(Y ), ou seja pode-se concluir que E(X) E(Y ) 0.
(vii) Se {X
1
, . . . , X
n
} so variveis aleatrias mutuamente independentes, ento
E(
n

i=1
X
i
) =
n

i=1
E(X
i
).
No caso discreto,
E(
n

i=1
X
i
) =

i
1
. . .

in
x
i
1
. . . x
in
p(x
i
1
, . . . , x
in
)
=

i
1
. . .

in
x
i
1
. . . x
in
n

j=1
p(x
i
j
)
=

i
1
x
i
1
p(x
i
1
) . . .

in
x
in
p(x
in
)
=
n

i=1
E(X
i
).
Campos & Rgo
6.4. MOMENTOS 121
No caso contnuo f

X
(x) =

n
i=1
f
X
i
(x
i
), logo
E(
n

i=1
X
i
) =
_

_
x
1
x
n
f

X
(x)dx
1
dx
n
=
_

_
n

i=1
x
i
f
X
i
(x
i
)dx
1
dx
n
=
n

i=1
_
x
i
f
X
i
(x
i
)dx
i
=
n

i=1
E(X
i
).
De maneira anloga, pode-se provar a seguinte generalizao deste resultado:
Se {X
1
, . . . , X
n
} so variveis aleatrias mutuamente independentes, ento
E(
n

i=1
G(X
i
)) =
n

i=1
E(G(X
i
)).
(viii) Se Y for uma varivel aleatria que assume valores inteiros no-negativos, ento
E(Y ) =

k=1
kP(Y = k) =

k=1
k

j=1
P(Y = k),
trocando a ordem dos somatrios:
E(Y ) =

j=1

k=j
P(Y = k) =

j=1
P(Y j).
6.4 Momentos
Momentos do informaes parciais sobre a medida de probabilidade P, a funo de distribui-
o acumulada, ou a funo probabilidade de massa de uma varivel aleatria X. Momentos
de X so esperanas de potncias de X.
Denio 6.4.1: Para qualquer inteiro no-negativo n, o n-simo momento da varivel
aleatria X
E(X
n
),
se esta esperana existe.
Este momento usualmente denominado de momento em torno do zero, uma vez que
poderia ser escrito como E((X 0)
n
).
Exemplo 6.4.2: Seja X tal que
P(X = k) =
_
n
k
_
p
k
(1 p)
nk
, k = 0, 1, . . . , n.
Campos & Rgo
6.4. MOMENTOS 122
Ento, o segundo momento de X, E(X
2
) :
E(X
2
) =
n

k=0
k
2
_
n
k
_
p
k
(1 p)
nk
=
n

k=1
k
2
n!
k!(n k)!
p
k
(1 p)
nk
=
n

k=1
k(k 1)
n!
k!(n k)!
p
k
(1 p)
nk
+
n

k=1
k
n!
k!(n k)!
p
k
(1 p)
nk
= n(n 1)p
2
n

k=2
(n 2)!
(k 2)!(n k)!
p
k2
(1 p)
nk
+ np
= n(n 1)p
2
m

j=0
(m)!
(j)!(mj)!
p
j
(1 p)
mj
+ np = n(n 1)p
2
+ np.
Teorema 6.4.3: Se o k-simo momento de uma varivel aleatria existir, ento todos os
momentos de ordem menores do que k tambm existem.
Prova: Por hiptese, E(|X
k
|) < , logo E(1 +|X
k
|) < . Como para qualquer j tal que
0 < j < k, |X
j
| 1 + |X
k
|, e 1 + |X
k
| integrvel, tem-se que |X
j
| tambm integrvel,
isto E(|X
j
|) < .
6.4.1 Momentos Centrais. Varincia
Denio 6.4.4: Se X uma varivel aleatria seu n-simo momento central em torno de
E(X)
E(X E(X))
n
,
se esta esperana existir.
O primeiro momento central em torno da mdia zero, pois
E(X E(X)) = E(X) E(E(X)) = E(X) E(X) = 0.
O segundo momento central conhecido como varincia e denota-se por V (X). A varincia
pode ser tambm calculada por:
V (X) = E(X E(X))
2
= E(X
2
2XE(X) + (E(X))
2
)
= E(X
2
) 2E(XE(X)) +E((E(X))
2
)
= E(X
2
) 2(E(X))
2
+ (E(X))
2
= E(X
2
) (E(X))
2
= E(X
2
) E(X)
2
.
Campos & Rgo
6.4. MOMENTOS 123
Exemplo 6.4.5:
Do Teorema Binomial e da linearidade da esperana, tem-se:
E(X E(X))
n
=
n

k=0
_
n
k
_
(E(X))
nk
E(X
k
)
e
E(X
n
) = E(X E(X) + E(X))
n
=
n

k=0
_
n
k
_
(E(X))
nk
E(X E(X))
k
.
Corolrio 6.4.6: O n-simo momento central existe se, e somente se, o n-simo momento
existe.
Exemplo 6.4.7: Considere uma varivel aleatria X tal que
P(X = ma) = P(X = m+ a) =
1
2
E(X
k
) =
1
2
[(ma)
k
+ (m+ a)
k
].
E(X) = m,
E(X
2
) =
1
2
(2m
2
+ 2a
2
) = m
2
+ a
2
,
V (X) = a
2
.
Este exemplo, mostra que possvel encontrar uma varivel aleatria possuindo qualquer
esperana e varincia predeterminadas.
Exemplo 6.4.8: calculo con continua
Denio 6.4.9: O desvio-padro de uma varivel aleatria X denido como a raiz
quadrada positiva da varincia,
(X) =
_
V (X).
6.4.2 Propriedades da Varincia e de outros Momentos
(i) V (X) 0.
Prova: Pela denio de varincia.
(ii) Se X = c, V (X) = 0.
Prova: E(X) = c, logo V (X) = E(X c)
2
= E(0) = 0.
Campos & Rgo
6.4. MOMENTOS 124
(iii) V (X + a) = V (X), onde a uma constante real.
Prova:
V (X + a) = E(X + a)
2
(E(X + a))
2
= E(X
2
) + 2aE(X) + a
2
(E(X))
2
2aE(X) a
2
= E(X
2
) (E(X))
2
= V (X).
(iv) V (aX) = a
2
V (X)
Prova:
V (aX) = E(aX)
2
(E(aX))
2
= a
2
E(X)
2
a
2
(EX)
2
= a
2
V (X).
(v) Se X e Y forem variveis aleatrias mutuamente independentes, ento
V (X + Y ) = V (X) + V (Y ).
Prova:
V (X + Y ) = E(X + Y )
2
(E(X + Y ))
2
= E(X
2
+ 2XY + Y
2
) (E(X))
2
2E(X)E(Y ) (EY )
2
= E(X
2
) E(X)
2
+ E(Y
2
) E(Y )
2
+ 2(E(XY ) E(X)E(Y ))
= E(X
2
) + E(Y
2
) (E(X))
2
(E(Y ))
2
+ 2E(XY ) 2E(X)E(Y )
= V (X) + V (Y ).
porque E(XY ) = E(X)E(Y ).
(vi) Se X
1
, . . . , X
n
so variveis aleatrias independentes, ento
V (X
1
+ . . . X
n
) = V (X
1
) + . . . + V (X
n
).
Esta propriedade segue da propriedade anterior e da aplicao de induo matemtica.
(vii) Se X e Y so variveis aleatrias em (, A, P) tais que E(|X
t
|) < e E(|Y
t
|) < ,
ento E(|X + Y |
t
) < .
Prova: |X+Y | |X|+|Y | 2 max(|X|, |Y |). Portanto, |X+Y |
t
2
t
max(|X|
t
, |Y |
t
)
2
t
(|X|
t
+|Y |
t
). Logo, E(|X + Y |
t
) 2
t
(E(|X|
t
) + E(|Y |
t
) < .
Como E(|X|
t
) < ento, E(|aX|
t
) < , a IR, esta propriedade diz que a classe
de variveis aleatrias em (, A, P) possuidoras do t-simo momento nito um espao
vetorial ou espao linear.
Campos & Rgo
6.5. A DESIGUALDADE DE TCHEBYCHEV 125
(viii) V (X) = E(X )
2
= min
cIR
E(X c)
2
.
Prova:
(X c)
2
= (X + c)
2
= (X )
2
+ 2( c)(X ) + ( c)
2
,
logo
E(X c)
2
= E(X )
2
+ 2( c)(E(X) ) + ( c)
2
= V (X) + ( c)
2
.
Portanto, E(X c)
2
E(X )
2
, c IR.
6.5 A Desigualdade de Tchebychev
Corolrio 6.5.1: Desigualdade (Original) de Tchebychev. Seja X uma varivel ale-
atria, ento
P(|X E(X)| )
V (X)

2
.
Prova: Seja A = {x : |x| } e g(x) =
x
2

2
. Note que g(x) I
A
(x), ento pelo teorema
anterior, P(X A) = P(|X| )
E(X
2
)

2
. Substituindo X por X E(X), tem-se
P(|X E(X)| )
V (X)

2
.
Corolrio 6.5.2: Desigualdade de Tchebychev Generalizada. Dado um conjunto A
e uma funo g(x) tal que x, g(x) I
A
(x), tem-se que P(X A) min(1, E(g(X))).
Prova: Pela monotonicidade da esperana, E(g(X)) E(I
A
(X)) = P(X A). Mas, como
a cota superior pode exceder 1, tem-se que min(1, E(g(X))) P(X A).
Corolrio 6.5.3: Seja X uma varivel aleatria, ento para todo > 0,
P(|X| )
E|X|

.
Prova: Escolha A = {x : |x| } e g(x) =
|x|

. Note que g(x) I


A
(x), ento P(|X| )
E(|X|)

.
Corolrio 6.5.4: Se Z 0 e E(Z) = 0, ento P(Z = 0) = 1.
Prova: P(Z
1
n
) nE(Z) = 0. Como [Z > 0] =
n
[Z
1
n
],
P(Z > 0) = P(
n
[Z
1
n
])

n
P(Z
1
n
) = 0.
Campos & Rgo
6.6. MOMENTOS CONJUNTOS 126
Portanto, P(Z = 0) = 1 P(Z > 0) = 1.
Este ltimo corolrio implica que, quando V (X) = 0, ou seja E(X E(X))
2
= 0, ento,
P(X = E(X)) = 1, isto , X constante com probabilidade 1.
Esta desigualdade declara que a probabilidade da varivel aleatria diferir da sua mdia
por mais do que uma constante qualquer () menor ou igual do que

2

2
. Portanto, quanto
menor a varincia, mais agrupados em torno da mdia esto os dados e, consequentemente,
maior a probabilidade de se obter um valor (dos dados) prximo mdia.
A desigualdade de Tchebychev geral no sentido de que no h qualquer hiptese sobre
a lei de probabilidade de X. A nica restrio que
2
< .
6.6 Momentos Conjuntos
A noo de momentos conjuntos denida no contexto de vetores aleatrios.
Denio 6.6.1: Seja

X = (X
1
, X
2
, . . . , X
k
) um vetor aleatrio k-dimensional. Ento, os
momentos conjuntos de

X so da forma E(

k
i=1
X
j
i
i
), onde j
i
s so inteiros positivos, se esta
esperana existir.
De forma anloga ao caso unidimensional pode-se denir tambm momentos conjuntos
centrais.
No caso bidimensional a correlao e a covarincia so momentos conjuntos; estes medem
o grau de dependncia linear entre duas variveis.
Denio 6.6.2: A covarincia entre duas variveis aleatrias X e Y dada por
Cov(X, Y ) = E((X E(X))(Y E(Y ))) = E(XY ) E(X)E(Y ).
Note que Cov(X, X) = V (X). Na prova da Propriedade (v) da varincia aparece a
expresso E(XY ) E(X)E(Y ), o que implica que, se X e Y no forem independentes,
V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ).
A seguir ser vista uma expresso para a varincia da soma de n variveis aleatrias.
Teorema 6.6.3: Sejam X
1
, X
2
, . . . , X
n
variveis aleatrias tais que V (X
i
) < , ento
V (X
1
+ . . . + X
n
) =
n

i=1
V (X
i
) + 2

i<j
Cov(X
i
, X
j
).
Prova:
V (X
1
+ + X
n
) = E(X
1
+ + X
n
E(X
1
+ + X
n
))
2
= E(
n

i=1
(X
i
E(X
i
))
2
= E(
n

i=1
(X
i
E(X
i
))
2
+ 2

i<j
(X
i
E(X
i
))(X
j
E(X
j
)))
=
n

i=1
V (X
i
) + 2

i<j
Cov(X
i
, X
j
).
Campos & Rgo
6.6. MOMENTOS CONJUNTOS 127
Corolrio 6.6.4: Sejam X
1
, X
2
, . . . , X
n
variveis aleatrias tais que V (X
i
) < e
Cov(X
i
, X
j
) = 0 para i = j, ento
V (X
1
+ . . . + X
n
) =
n

i=1
V (X
i
).
O prximo teorema trata de importante desigualdade em teoria da probabilidade:
Teorema 6.6.5: (E(XY ))
2
E(X
2
)E(Y
2
).
Prova: (aX+Y )
2
0 E(aX+Y )
2
0 a
2
E(X
2
)+2aE(XY )+E(Y
2
) 0. Observa-se
que esta equao do segundo grau em a no pode ter duas razes reais diferentes, pois caso
contrrio essa expresso seria negativa para os valores entre as razes. Ento, utilizando a
regra do discriminante,
4(EXY )
2
4EX
2
EY
2
0,
o teorema est provado.
Corolrio 6.6.6: (Cov(X, Y ))
2
V (X)V (Y ).
Prova: Segue do teorema anterior trocando X por X E(X) e Y por Y E(Y ).
Denio 6.6.7: O coeciente de correlao entre duas variveis aleatrias X e Y dado
por
(X, Y ) =
Cov(X, Y )
_
V ar(X)V ar(Y )
.
Denio 6.6.8: Duas varveis so no-correlacionadas se Cov(X, Y ) = 0.
Como j foi provado que se X e Y so independentes, ento E(XY ) = E(X)E(Y ), se
X e Y so independentes, elas necessariamente so no-correlacionadas. O contrrio nem
sempre verdadeiro como o prximo exemplo ilustra.
Exemplo 6.6.9: Se X uma varivel aleatria tal que P(X = a) = P(X = a) = 1/2 e
Y = X
2
, ento E(XY ) = a
3
(1/2) + a
3
(1/2) = 0 e E(X) = a(1/2) + a(1/2) = 0. Logo,
E(XY ) = E(X)E(Y ) = 0, ou seja, Cov(X, Y ) = 0. Porm, X e Y no so independentes,
pois Y uma funo de X.
O teorema anterior provou que |(X, Y )| 1. O prximo teorema mostra que o mdulo
do coeciente de correlao entre duas variveis igual a 1 se, e somente se, as variveis so
linearmente dependentes.
Teorema 6.6.10: Sejam X e Y variveis aleatrias com varincias nitas e positivas.
Ento,
Campos & Rgo
6.6. MOMENTOS CONJUNTOS 128
(i) (X, Y ) = 1 se, e somente se, P(Y = aX + b) = 1 para algum a > 0 e b IR.
(ii) (X, Y ) = 1 se, e somente se, P(Y = aX + b) = 1 para algum a < 0 e b IR.
Prova:
(i) Como (
XE(X)

V (X)

Y E(Y )

V (Y )
)
2
0, ento,
0 E(
X E(X)
_
V (X)

Y E(Y )
_
V (Y )
)
2
= E(
X E(X)
_
V (X)
)
2
+ E(
Y E(Y )
_
V (Y )
)
2

2
_
V (X)V (Y )
E((X E(X))(Y E(Y )))
=
V (X)
V (X)
+
V (Y )
V (Y )

2Cov(X, Y )
_
V (X)V (Y )
= 2 2(X, Y ).
Se (X, Y ) = 1, ento
E(
X E(X)
_
V (X)

Y E(Y )
_
V (Y )
)
2
= 0,
o que por sua vez implica que
P(
X E(X)
_
V (X)
=
Y E(Y )
_
V (Y )
) = 1,
em outras palavras,
P(Y = E(Y ) +
_
V (Y )
_
V (X)
(X E(X))) = 1.
(ii) Anloga, substituindo o sinal + por - na expresso acima.
O prximo teorema apresenta uma nova relao entre momentos conjuntos de variveis
aleatrias. Ele conhecido como Desigualdade de Hlder.
Teorema 6.6.11: Suponha que p e q satisfazem: p > 1, q > 1, e
1
p
+
1
q
= 1. Ento, se
E(|X|
p
) < e E(|X|
q
) < , tem-se que
E(|XY |) (E|X|
p
)
1/p
(E|Y |
q
)
1/q
.
Campos & Rgo
6.7. ESPERANA CONDICIONAL 129
Prova: A prova da desigualdade de Hlder utiliza um argumento de convexidade. Como
|X|
p
0 (resp., |X|
q
0), j foi visto que se E(|X|
p
) = 0, ento P(X = 0) = 1. Portanto,
em ambos os casos E(|XY |) = 0 e a desigualdade de Hlder vlida. Considere ento o
caso em que o lado direito da desigualdade de Hlder estritamente positivo.
Para a > 0 e b > 0, existe s, t IR tal que
a = exp(
s
p
) e b = exp(
t
q
).
Como a funo exponencial convexa e p
1
+ q
1
= 1, por convexidade,
exp(
s
p
+
t
q
) p
1
exp(s) + q
1
exp(t),
ou pela denio de s, t
ab p
1
a
p
+ q
1
b
q
.
Agora substituindo a por
|X|
(E(|X|
p
))
1/p
e b por
|Y |
(E(|Y |
q
))
1/q
, temos
|XY |
(E(|X|
p
))
1/p
(E(|Y |
q
))
1/q
p
1
(
|X|
(E(|X|
p
))
1/p
)
p
+ q
1
(
|Y |
(E(|Y |
q
))
1/q
)
q
.
Finalmente, tomando o valor esperado,
E(|XY |)
(E(|X|
p
))
1/p
(E(|Y |
q
))
1/q
p
1
(
E(|X|
p
)
(E((|X|
p
)))
)
p
+ q
1
(
E|Y |
q
(E(|Y |
q
))
)
q
= p
1
+ q
1
= 1.
6.7 Esperana Condicional
6.8 Aprendendo um pouco mais...
Antes de se introduzir a denio geral da esperana de uma varivel aleatria qualquer,
sero vistos conceitos sobre as integrais de Riemann-Stieltjes e de Lebesgue-Stieltjes.
6.8.1 As integrais de Riemman-Stieltjes e de Lebesgue-Stieltjes
Antes das denies das integrais de Riemman-Stieltjes e Lebesgue-Stieltjes, tem-se a deni-
o da integral de Riemann.
Uma partio P do intervalo [a, b] uma sequncia de pontos {x
1
, . . . , x
n
} tal que a =
x
1
< x
2
< < x
n
= b; a norma da partio P denida como sendo max
1in1
x
i+1
x
i
.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 130
Suponha que seja uma funo real qualquer denida no intervalo [a, b]. Diz-se que esta
funo Riemann integrvel se a soma de Riemann
n1

i=1
(y
i
)(x
i+1
x
i
),
onde y
i
[x
i
, x
i+1
], convergem quando a norma de P tende a zero e este limite independente
da escolha dos y
i
s e da partio P. Se esta integral existe denota-se o limite por
_
b
a
(x)dx.
A integral de Riemann-Stieltjes uma generalizao ad integral de Riemann. Se
uma funo contnua denida no intervalo [a, b] e F uma funo de distribuio, dene-se
a integral de Riemann-Stieltjes de em [a, b], em relao a F, como o limite de somas de
Riemann da forma
n1

i=1
(y
i
)[F(x
i+1
) F(x
i
)],
onde a = x
1
< x
2
< < x
n
= b, y
i
um ponto arbitrrio de [x
i
, x
i+1
] e toma-se o limite
quando a norma de partio P tende a zero. Tal limite existe e nito sob as condies
descritas sendo representado por
_
b
a
(x)dF(x).
A fun chamada de integrando e F de integrador. O limite acima existe mesmo que
F no seja uma funo de distribuio, basta que seja de variao limitada.
Denio 6.8.1: Dene-se variao total de uma funo f em [a, b] pelo funcional:
V (f, [a, b]) = sup
n

i=1
|f(x
i+1
) f(x
i
)|,
onde o supremo tomado sobre todas as possveis parties do intervalo fechado [a, b]. Uma
funo de variao limitada se V (f, [a, b]) < .
A integral de Rieman-Stieltjes sobre a reta uma integral imprpria denida da mesma
maneira que a integral imprpria de Riemann:
_

(x)dF(x) = lim
a,b
_
b
a
(x)dF(x),
se o limite existe. Esta denio da integral de Riemann-Stietjes pode ser estendida a outras
funes alm das contnuas.
Para uma funo qualquer , dene-se
_
b
a
(x)dF(x) como sendo o limite das somas de
Riemann descritas acima quando a norma da partio tende a zero, se este limite existe e
independente das escolhas dos y
i
s e da partio P. O problema que mesmo para funes
bem simples este limite pode no existir como mostra o prximo exemplo.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 131
Exemplo 6.8.2: Seja F
0
(x) = 1 se x 0, e F
0
(x) = 0, caso contrrio. Considere-se a
integral de Riemann-Stieltjes de F
0
em [1, 1] em relao a F
0
. Note que se zero no um
dos pontos da partio, de modo que x
i
< 0 < x
i+1
para algum i, com F
0
(x
i+1
) F
0
(x
i
) = 1,
ento o somatrio assume como valor escolhido para y
i
ser maior que 0, ou no.
Uma integral que no sofre desta decincia a integral de Lebesgue-Stieltjes. A idia da
integral de Lebesgue-Stieltjes particionar a imagem da funo ao invs de particionar o
seu domnio. Diz-se que uma partio P

um renamento de P se P P

, ou seja, quando
os intervalos da partio P so particionados na partio P

.
Suponha que seja no negativa e mensurvel em relao a -lgebra de Borel. Seja
uma medida nos reais, ou seja, uma funo cujo domnio a -lgebra de Borel que tem como
imagem do conjunto vazio zero, no-negativa e -aditiva. Dada uma sequncia {P
1
, P
2
, . . .}
de parties de [0, ) onde P
n
= {y
1
, y
2
, . . . , y
n
}, y
n
, P
i+i
um renamento de P
i
,
e a norma de P
n
tende a zero quando n , dene-se a soma de Lebesgue em relao a
partio P
n
como sendo,
n1

i=1
y
i
({x : y
i
(x) < y
i+1
}) + y
n
({x : (x) y
n
}).
A integral de Lebesgue-Stieltjes de em relao a denida como sendo igual ao limite
das somas de Lebesgue, quando n . Dadas as condies acima, este limite sempre existe
(pode ser +) e denotado por
_
d.
Para uma funo mensurvel qualquer, pode-se escrever =
+

, onde
+
=
max(, 0), a parte positiva de , e

= min(, 0), o mdulo da parte negativa de , so


funes no-negativas e portanto possuem integral de Lebesgue-Stieltjes. Se
+
ou

possui
integral de Lebesgue-Stieltjes nita em relao a , dene-se a integral de Lebesgue-Stieltjes
de em relao a como sendo
_
d =
_

+
d
_

d.
Se for uma medida de probabilidade em (IR, B) e F for a distribuio de probabi-
lidade acumulada associada varivel aleatria X() = , ento escreve-se
_
(x)dF(x)
(ou simplesmente,
_
dF) para denotar
_
d. Em geral, usa-se a notao
_
(x)dF(x)
no somente para funes de distribuio, mas para qualquer funo F que pode ser es-
crita como a diferena de duas funes montonas no-decrescentes, limitadas e contnuas
direita. Se G for uma funo montona no-decrescente, limitada e contnua direita,
ento dado um intervalo qualquer I = [x
1
, x
2
], denindo-se (I) = G(x
2
) G(x
1
), usa-se a
notao
_
(x)dG(x) para denotar a integral
_
(x)d, onde a nica medida que satisfaz
(I) = G(x
2
) G(x
1
) para todo intervalo I. Desta forma, se F = G
1
G
2
, onde G
1
e G
2
so funes montonas no-decrescentes, limitadas e contnuas direita, ento
_
(x)dF(x)
utilizado para denotar
_
(x)dG
1
(x)
_
(x)dG
2
(x).
Dada um intervalo qualquer [a, b], dene-se a integral de Lebesgue-Stieltjes de em
relao a no intervalo [a, b] como sendo
_
I
[a,b]
d
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 132
e denota-se por
_
b
a
d.
6.8.2 Propriedades da Integral de Lebesgue-Stieltjes
(i) Quando o integrando contnuo, a integral de Lebesgue-Stieltjes torna-se uma integral
de Riemman-Stieltjes.
(ii)
_
b
a
dF = F(b) F(a).
Propriedade anloga ao Teorema Fundamental do Clculo:
_
b
a

(x)dx = (b) (a),


onde (x) a derivada de .
(iii) Linearidade no integrando e no integrador. Se (x) = f(x) + g(x), ento
_
dF =
_
fdF +
_
gdF,
e para H(x) = F(x) + G(x),
_
dH =
_
dF +
_
dG.
(iv) Aditividade. Se a < b < c , ento
_
c
a
dF =
_
b
a
dF +
_
c
b
dF.
(v) Se F for a funo de distribuio de uma varivel aleatria discreta, ou seja, se
F(x) =

i=1
p
i
U(x x
i
),
onde P(X = x
i
) = p
i
e

i=1
p
i
= 1, ento
_
dF =

i=1
p
i
(x
i
).
(vi) Se F for a funo de distribuio de uma varivel aleatria contnua tendo densidade
f, ento
dF(x)
dx
= f(x) em quase toda parte, e consequentemente,
_
(x)dF(x) =
_
(x)f(x)dx.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 133
(vii) No caso de uma distribuio qualquer F, foi visto que F pode ser decomposta em suas
partes discreta, contnua e singular da seguinte forma F = F
d
+ F
ac
+ F
s
, ento por
linearidade do integrador:
_
(x)dF(x) =
_
(x)dF
d
(x) +
_
(x)dF
ac
(x) +
_
(x)dF
s
(x).
Se a parte singular for nula, F
s
(x) = 0, x,
_
(x)dF(x) =

i
(x
i
)p
i
+
_
(x)f(x)dx,
onde p
i
o salto de F em x
i
e f a derivada de F.
6.8.3 Denio da Esperana - Caso Geral
Considere uma sequncia {P
1
, P
2
, . . .} de parties de [0, ) onde P
n
= {y
1
, y
2
, . . . , y
n
},
y
n
, P
i+i
um renamento de P
i
, e a norma de P
n
tende a zero quando n . Dada
uma varivel aleatria no-negativa qualquer X e uma partio P
n
desta sequncia, den-
se uma outra varivel aleatria Y discreta que aproxima X assumindo o valor y
i
quando
y
i
X < y
i+1
e Y = y
n
se X y
n
, ou seja, Y =

n1
i=1
y
i
I
[y
i
X<y
i+1
]
+ y
n
I
[Xyn]
. Como Y
discreta tem-se que sua esperana dada por
E(Y ) =
n

i=1
y
i
P(Y = y
i
) =
n1

i=1
y
i
P(y
i
X < y
i+1
) + y
n
P(X y
n
).
Esta esperana uma soma de Lebesgue em relao partio P
n
com integrando X e
funo integradora dada pela medida de probabilidade P. Note que a medida que parties
mais renadas so consideradas na sequencia, Y se torna cada vez uma melhor aproximao
para X. J que os valores de X e Y cam cada vez mais prximos intuitivo requerer que a
denio de esperana (mdia) E(X) seja igual ao limite de E(Y ) quando n , ou seja
E(X) = lim
n
n

i=1
y
i
P(Y = y
i
) = lim
n
n1

i=1
y
i
P(y
i
X < y
i+1
) + y
n
P(X y
n
) =
_
XdP.
Logo, E(X) denida como sendo a integral de Lebesgue-Stieltjes de X em relao a medida
de probabilidade P, ou similarmente, E(X) =
_
XdF, onde F a funo de distribuio
acumulada de X. No caso geral, tem-se a seguinte denio
Denio 6.8.3: Se X uma varivel aleatria com funo de distribuio F, ento sua
esperana dada pela frmula
E(X) =
_
XdF =
_
0

XdF +
_

0
XdF,
desde que pelo menos uma das integrais seja nita. Em caso das duas integrais no serem
nitas, a esperana no existe. Caso E(X) seja nita, diz-se que X integrvel.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 134
Pela Propriedade (vii) da integral de Lebesgue-Stieltjes, tem-se que se F = F
d
+F
ac
+F
s
,
ento
E(X) =
_
XdF =

i
x
i
p
i
+
_
xf(x)dx +
_
xdF
s
(x),
onde p
i
o salto de F em x
i
e f a derivada de F. Como a parte singular costuma ser
nula, na prtica a esperana reduz-se a uma srie ou uma integral imprpria, usualmente de
Riemann se f for integrvel a Riemann.
Exemplo 6.8.4: Considere uma varivel aleatria Y com funo de distribuio F, tal que
F(x) =
_
_
_
0, se x < 0,
x, se 0 x < 1/2,
1, se x 1/2.
Decompondo F nas partes discreta e contnua tem-se
F
d
(x) =
_
0, se x < 1/2,
1/2, se x 1/2,
e
F
ac
(x) =
_
_
_
0, se x < 0,
x, se 0 x < 1/2,
1/2, se x 1/2.
Portanto,
E(Y ) =
1
2
P(Y =
1
2
) +
_
1/2
0
ydy =
1
4
+
1
8
=
3
8
.
6.8.4 Interpretao Geomtrica da Esperana
Por denio, E(X) =
_
xdF(x), ou seja, E(X) a integral da diferencial xdF. Mas xdF
uma diferencial de rea. Para x > 0, xdF uma diferencial da rea da regio compreendida
entre as curvas x = 0, y = 1, e y = F(x) no plano Euclideano, cuja rea total dada por
_

0
(1 F(x))dx. Para x < 0, xdF uma diferencial da rea da regio compreendida
entre as curvas x = 0, y = 0, e y = F(x) no plano Euclideano, cuja rea total dada por
_
0

F(x)dx. Logo, E(X) =


_

0
(1 F(x))dx
_
0

F(x)dx.
Prova:
Formalmente, prova-se isso da seguinte maneira. A prova dividida em duas etapas: (a)
_

0
xdF(x) =
_

0
(1F(x))dx e (b)
_
0

xdF(x) =
_
0

F(x)dx. Provando (b). Utilizando


integrao por partes, tem-se que a < 0,
_
0
a
xdF(x) = aF(a)
_
0
a
F(x)dx =
_
0
a
(F(a) F(x))dx.
Como F(a) 0 e a < 0,
_
0
a
xdF(x)
_
0
a
F(x)dx.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 135
Como a desigualdade vlida para todo a < 0, tomando o limite quando a
_
0

xdF(x)
_
0

F(x)dx.
Por outro lado, seja < 0. Se a < , ento
_
0
a
(F(a) F(x))dx
_
0

(F(a) F(x))dx = F(a)()


_
0

F(x)dx,
e portanto, tomando o limite quando a ,
_
0

xdF(x)
_
0

F(x)dx.
Como isto vlido para todo < 0, tomando o limite quando ,
_
0

xdF(x)
_
0

F(x)dx.
Para a parte (a), utilizando integrao por partes, tem-se que b > 0,
_
b
0
xdF(x) = bF(b)
_
b
0
F(x)dx =
_
b
0
(F(b) F(x))dx.
Como F(b) 1 e 1 F(x) 0,
_
b
0
xdF(x) =
_
b
0
(F(b) F(x))dx
_

0
(1 F(x))dx.
Como a desigualdade vlida para todo b > 0, e tomando o limite quando b
_

0
xdF(x)
_

0
(1 F(x))dx.
Por outro lado, seja > 0. Se b > , ento
_
b
0
(F(b) F(x))dx
_

0
(F(b) F(x))dx
=
_

0
(F(b) 1)dx +
_

0
(1 F(x))dx
= (F(b) 1) +
_

0
(1 F(x))dx,
e portanto, tomando o limite quando b ,
_

0
xdF(x)
_

0
(1 F(x))dx.
Campos & Rgo
6.8. APRENDENDO UM POUCO MAIS... 136
Como isto vlido para todo > 0, tomando o limite quando ,
_

0
xdF(x)
_

0
(1 F(x))dx.
A desigualdade de Jensen uma das propriedades da esperana.
Corolrio 6.8.5: (Desigualdade de Jensen) Seja uma funo mensurvel e convexa de-
nida na reta. Se X integrvel, ento E((X)) (E(X)).
Prova: Pela convexidade de , dado algum ponto (x
0
, (x
0
) do grco de , existe uma
reta que passa por esse ponto e ca sempre abaixo do grco de , ou seja, existe algum
tal que
(x) (x
0
) + (x x
0
), x.
Logo, pela monotonicidade e linearidade da esperana,
E(X) (x
0
) + (E(X) x
0
).
Em particular, para x
0
= EX, tem-se E(X) (E(X)).
O prximo lema estabelece um critrio para integrabilidade de variveis aleatrias.
Lema 6.8.6: Seja X uma varivel aleatria qualquer. Ento,

n=1
P(|X| n) E|X| 1 +

n=1
P(|X| n),
e, portanto, X integrvel se, e somente se,

n=1
P(|X| n) < .
Prova: Se x 0, seja x a parte inteira de x. Ento, a varivel aleatria |X| assume o
valor k quando k |X| < k + 1 e 0 |X| |X| |X| + 1, ento pela monotonicidade
e linearidade da esperana,
0 E|X| E|X| 1 +E|X|.
Como |X| uma varivel aleatria que s assume valores inteiros no-negativos,
E|X| =

n=1
P(|X| n) =

n=1
P(|X| n),
logo

n=1
P(|X| n) E(|X|) 1 +

n=1
P(|X| n).
Campos & Rgo
6.9. EXERCCIOS 137
Se X
+
= max(X, 0) e X

= min(X, 0), ento X = X


+
X

e |X| = X
+
+ X

. Por
denio, E(X) < se, e somente se, E(X
+
) < e E(X
)
< . Portanto, E(X) <
se, e somente se, E(|X|) < . De forma anloga, pode-se concluir que E((X)) < se, e
somente se, E(|(X)|) < para qualquer funo mensurvel .
O prximo teorema fornece um outro critrio para integrabilidade de uma varivel alea-
tria.
Teorema 6.8.7: Sejam X e Y variveis aleatrias tais que Y 0, Y integrvel e |X| < Y .
Ento, X integrvel.
Prova: Note que 0 |X| Y implica que 0 E(|X|) E(Y ). Portanto, se E(Y ) < ,
ento E(|X|) < , o que por sua vez implica que E(X) < .
Os dois importantes teoremas (Burrill, 1972) a seguir tratam da convergncia de esperan-
as de variveis aleatrias. O critrio de convergncia envolvido o pontual ou seja, X
n
X
se, e somente se, X
n
(w) X(w) para todo w .
Teorema 6.8.8: Teorema da Convergncia Montona. Sejam X, X
1
, X
2
, . . . variveis
aleatrias. Se 0 X
n
X, ento, E(X
n
) E(X).
Teorema 6.8.9: Teorema da Convergncia Dominada. Sejam Y, X, X
1
, X
2
, . . . vari-
veis aleatrias. Considere que Y seja integrvel, |X
n
| Y e X
n
X. Assim X e X
n
so
integrveis e E(X
n
) E(X).
O prximo exemplo mostra que nem sempre X
n
X E(X
n
) E(X).
Exemplo 6.8.10: Seja Y U(0, 1). Considere a seguinte sequncia {X
1
, X
2
, . . .} de
variveis aleatrias: X
n
() = n se Y () (0, 1/n) e X
n
() = 0, caso contrrio. Ento,
X
n
() 0, . Mas, E(X
n
) = 1 = 0 = E(0), ou seja, E(X
n
) 0.
6.9 Exerccios
1. Seja
f(x, y) =
_
2, 0 < x < y, 0 < y < 1
0, quaisquer outros casos
a funo densidade conjunta do vetor aleatrio (X, Y ).
Sejam u(X, Y ) = X, v(X, Y ) = Y e w(X, Y ) = XY .
Mostre que E(u(X, Y )) E(v(X, Y )) = E(w(X, Y )).
2. Suponha que a demanda (procura) por semana de um certo produto seja uma varivel
aleatria D com distribuio de probabilidade p
k
= P(D = k), para k = 0, 1, 2, .
Para este produto sabe-se que o preo de custo C
1
, enquanto o preo de venda
C
2
. Se o produto no for vendido at o nal da semana, deve ser refugado a um custo
adicional C
3
. Se o fabricante decide fabricar N desses produtos no incio da semana,
pede-se:
Campos & Rgo
6.9. EXERCCIOS 138
(a) A distribuio de probabilidade da varivel aleatria lucro por semana.
(b) O lucro esperado por semana.
3. Sejam os inteiros de 1 a 10 e suponha que um deles seja escolhido aleatoriamente.
Considere a varivel aleatria X como sendo o nmero de divisores do nmero sorteado.
Calcule o nmero mdio de divisores do nmero sorteado.
4. n mensagens esto sendo enviadas atravs de um canal de comunicao. Os tempos
de durao das mensagens, T
i
, i = 1 , n so aleatrios, e tm a mesma mdia , a
mesma varincia
2
e so independentes.
(a) Encontre a mdia e a varincia do tempo total T de transmisso das n mensagens.
(b) Encontre T
max
, que o tempo mximo praticamente possvel durante o qual as
mensagens podem ser transmitidas. Sugesto:
X
3
X
, three sigma rule.
5. Resolva o problema anterior quando os comprimentos das mensagens so dependentes
e o coeciente de correlao entre as variveis T
i
e T
j
r
ij
.
6. A administrao de uma rede planeja o momento Y de comeo de uma operao
como sendo o tempo mximo em que duas operaes de suporte, X
1
e X
2
, tenham
terminado. As variveis aleatrias X
1
e X
2
so mutuamente independentes e tm
densidades, respectivamente, f
X
1
e f
X
2
. Encontre a mdia e a varincia da varivel Y .
7. Uma mensagem enviada atravs de um canal de comunicao, consiste de n dgitos 0 ou
1, sendo cada um igualmente provvel e independentes. Dena uma varivel aleatria
X como o nmero de mudanas nos dgitos.
(a) Encontre a mdia e a varincia de X.
(b) Encontre o nmero mximo praticamente possvel de mudanas.
8. Se X e Y so varveis aleatrias independentes, discretas ou contnuas Mostre que,
y R
Y
,
E(X | Y = y) = E(X).
9. Se (X, Y ) tem uma densidade conjunta f(x, y) = 2, para 0 < x < y < 1. Compute:
(a) E(Y X);
(b) V (Y X).
10. Dada a densidade conjunta do vetor aleatrio (X, Y ),
f(x, y) = 6(1 x y), 0 < y < 1 x < 1,
calcule
(a) as densidades de X e Y ;
Campos & Rgo
6.9. EXERCCIOS 139
(b) E(XY ).
11. Um jogador lana duas moedas no-viciadas. Ganha 1 u.m. (unidade monetria) ou 2
u.m., conforme ocorra uma ou duas caras. Por outro lado, perde 5 u.m. se no ocorrer
cara. Ache o valor esperado E do jogo e verique se o mesmo favorvel ao jogador.
12. Analysing the Quick-Sort Algorithm. Suppose we are given a set of n distinct values,
x
1
, , x
n
, and we desire to put these values in increasing order, or as it is commonly
called, to sort them. An ecient procedure for accomplishing this is the quick-sort
algorithm which is dened recursively s follows: When n = 2 the algorithm compares
the 2 values and puts them in the appropriate order. When n > 2 it starts by choosing
at random one of the n values, say x
i
, and then compares each of the other n 1
values with x
i
, noting which are smaller and which are larger than x
i
. Letting S
i
denote the set of elements smaller than x
i
, and S
i
, the set of elements greater than
x
i
, the algorithm now sorts the set S
i
and the set S
i
. The nal ordering, therefore,
consists of the ordered set of elements in S
i
, then x
i
, and then the ordered set of
elements in S
i
. One measure of the eectiveness of this algorithm is the expected
number of comparisons that it makes. Let M
n
the expected number of comparisons
needed by the quick-sort algorithm to sort a set of n distinct values. Find E(M
n
) (S.
M. Ross, Introduction to Probability Models, fth edition, pp. 96).
13. A List Model. Consider n elements e
1
, , e
n
, which are initially arranged in some
ordered list. At each unit of time a request is made for one of these elements, e
i
, being
requested, independently of the past, with probabilityn p
i
. After being requested the
element is then moved to the front of the list. We are interested in determining the
expected position of the element requested after this process has been in operation for
a long time (S. M. Ross, Introduction to Probability Models, fth edition, pp. 107).
Campos & Rgo
Captulo 7
Principais Variveis Aleatrias Discretas
Este captulo descreve os principais modelos de variveis aleatrias discretas, isto , as
variveis aleatrias discretas mais comumente encontradas no mundo fsico. Dentre essas
destacam-se: Bernoulli, Binomial, Poisson, Geomtrica, Pascal, Hipergeomtrica, Zeta e,
como um modelo de uma distribuio discreta multivariada, a Multinomial. Para cada uma
delas ser dada a distribuio de probabilidade, P(X = k), ou lei de probabilidade
1
espe-
rana, E(X), e varincia, V (X).
Uma explicao: parmetro da distribuio de probabilidade a entidade sem a qual
impossvel calcular probabilidades envolvendo a varivel aleatria. O k, em P(X = k), um
dos valores que a varivel aleatria assume com probabilidade diferente de zero, isto , um
dos valores do seu contradomnio. Se o ou os parmetros da distribuio de probabilidade
no so conhecidos, o que acontece em problemas prticos, a Estatstica fornece mtodo para
estim-los.
7.1 Bernoulli de parmetro p, B(p)
A modelagem de uma situao do mundo fsico por uma Bernoulli envolve denir um evento
de interesse, A por exemplo, e a ele associar uma probabilidade p = P(A). Portanto, nesta
modelagem, o mundo real dicotmico, isto , ou A acontece, ou no, neste ltimo caso,
acontece seu complementar. Assim, uma Bernoulli pode ser adequada para modelar: o
estado de uma impressora, se funcionando ou no; em uma palavra de mquina um dado
bit ser 1 ou 0. Alm de modelar o mundo real, a Bernoulli bsica em desenvolvimentos
tericos como, conjuntamente com a desigualdade de Tchebychev, provar a Lei dos Grandes
Nmeros.
(i) Distribuio de probabilidade.
P(X = k) =
_
q, k = 0,
p, k = 1,
onde q = 1 p e portanto

1
k=0
= 1.
1
portanto, 0 P(X = k) 1, k and

k
P(X = k) = 1.
140
7.2. BINOMIAL DE PARMETROS N E P, B(N, P) 141
(ii) Esperana.
E(X) = 0 q + 1 p = p.
(iii) Varincia.
E(X
2
) = 0
2
p + 1
2
p = p,
logo
V (X) = E(X
2
) E(X)
2
= p p
2
= pq.
Exemplo 7.1.1:
7.2 Binomial de parmetros n e p, B(n, p)
Uma varivel binomial conta o nmero de ocorrncias (ou o nmero de sucessos) de um
dado evento A em n experimentos independentes de Bernoulli onde P(A) = p permanece
constante em todo o desenvolvimento do experimento. Assim, uma binomial adequada
para modelar, entre outros, o nmero de zeros em uma palavra de mquina de preciso
simples, o nmero de processadores em funcionamento em um sistema multiprocessador ou
o nmero de servidores ativos em um dado sistema de computao.
(i) Distribuio de probabilidade.
P(X = k) =
_
n
k
_
p
k
(1 p)
nk
, k = 0, . . . , n.
Note que, usando o teorema binomial
2
tem-se que
n

k=0
P(X = k) =
n

k=0
_
n
k
_
p
k
q
nk
= (p + q)
n
= 1.
(ii) Esperana.
E(X) =
n

k=0
k
_
n
k
_
p
k
q
nk
=
n

k=0
k
n!
k!(n k)!
p
k
q
nk
=
n

k=1
n!
(k 1)!(n k)!
p
k
q
nk
=
n

k=1
n
(n 1)!
(k 1)!(n k)!
p
k
q
nk
= np
n

k=1
_
n 1
k 1
_
p
k1
q
nk
= np.
2
(a +b)
n
=

n
k=0
_
n
k
_
a
k
b
nk
.
Campos & Rgo
7.3. POISSON DE PARMETRO , P() 142
(iii) Varincia. COLOCAR ESTE CALCULO
Um clculo similar ao de E(X) mostra que
E(X
2
) = npq + n
2
p
2
e portanto,
V (X) = npq + n
2
p
2
n
2
p
2
= npq.
Uma varivel aleatria relacionada com uma X B(n, p) Y = n X. Neste caso, Y
conta o nmero de falhas
3
nas n repeties independentes do experimento, sendo ento uma
B(n, q).
Exemplo 7.2.1: Um sistema de computao on-line tem 20 linhas de comunicao que
operam independentemente. A probabilidade que qualquer linha esteja ocupada 0.6. Qual
a probabilidade que 10 ou mais linhas estejam em operao?
7.3 Poisson de parmetro , P()
A funo de probabilidade Poisson utilizada para modelar a contagem do nmero de
ocorrncias de eventos aleatrios em um certo tempo t, como por exemplo o nmero de
ftons emitidos por uma fonte de luz de intensidade I ftons/seg em t segundos ( = It), o
nmero de clientes chegando em uma la no tempo t ( = Ct), o nmero de ocorrncias de
eventos raros no tempo t ( = Ct).
(i) Distribuio de probabilidade.
P(X = k) =
e

k
k!
, k {0, 1, . . .}.
Usando o resultado da expanso em srie de Taylor da funo exponencial, sabe-se que
para todo x real,
e
x
=

k=0
x
k
k!
.
Portanto,

k=0
p(k) =

k=0
e

k
k!
= e

k=0

k
k!
= e

= 1.
(ii) Esperana.
E(X) =

k=0
k
e

k
k!
=

k=1
e

k
(k 1)!
=

s=0
e

s+1
s!
= e

s=0
e

s
s!
= e

= .
3
Na verdade a denio do que sucesso ou falha depende de como a modelagem est sendo realizada.
Campos & Rgo
7.3. POISSON DE PARMETRO , P() 143
No clculo acima, k 1 = s k = s + 1.
(iii) Varincia.
E(X
2
) =

k=0
k
2
e

k
k!
=

k=1
k
e

k
(k 1)!
=

s=0
(s + 1)
e

s+1
s!
=

s=0
s
e

s+1
s!
+

s=0
e

s+1
s!
=

s=0
s
e

s
s!
+

s=0
e

s
s!
=
2
+ .
Portanto,
V (X) =
2
+
2
= .
Exemplo 7.3.1: Se a probabilidade de 0 ftons serem emitidos no tempo t igual a 0.1,
ento qual a probabilidade de que pelo menos 2 ftons serem emitidos no mesmo tempo t?
Exemplo 7.3.2: Um valor mais provvel de uma distribuio de Poisson denido como
k

se
P(X = k

+ 1) P(X = k

)
e
P(X = k

1) P(X = k

).
Esta condio equivalente a,
k

+ 1
ou
1 k

.
Se k

o maior inteiro menor ou igual a esta restrio satisfeita, e portanto este


um valor mais provvel desta distribuio. Em outras palavras, k

o valor de k que torna


mxima a probabilidade na Poisson.
Exemplo 7.3.3: Suponha que o nmero de clientes que chegam em um banco segue uma
distribuio de Poisson. Se a probabilidade de chegarem 3 clientes for o triplo da de chegarem
4 clientes em um dado perodo de 10 minutos. Determine:
(a) Qual o nmero esperado de clientes que chegam em um perodo de 1 hora neste banco?
(b) Qual o nmero mais provvel de clientes que chegam em um perodo de 1 hora neste
banco?
Campos & Rgo
7.3. POISSON DE PARMETRO , P() 144
7.3.1 Poisson como um Limite de Eventos Raros de Binomial
A distribuio de Poisson pode ser encontrada pelo limite de uma B(n, p), quando n vai para
innito (isto , o experimento realizado um nmero grande de vezes), p muito pequeno
mas np, que mdia da binomial, permanece constante. A explanao a seguir
4
motiva
como essa aproximao pode ser realizada.
Suponha que chamadas telefnicas cheguem em uma grande central e que em um perodo
particular de trs horas (180 minutos) um total de 270 chamadas tenham sido recebidas, ou
seja, 1,5 chamadas por minuto. O objetivo calcular a probabilidade de serem recebidas k
chamadas durante os prximos trs minutos. natural pensar que a qualquer instante pode
ocorrer uma chamada, portanto a modelagem do problema exige que aproximaes sejam
feitas.
Para comear, pode-se dividir o intervalo de 3 minutos em nove intervalos de 20 segundos
cada um e tratar cada um desses nove intervalos como um ensaio de Bernoulli, durante o
qual observa-se uma chamada (sucesso) ou nenhuma chamada (falha), com probabilidade
de sucesso igual a p = 1, 5
20
60
= 0, 5. Desse modo, a tentao grande para armar
que a probabilidade de 2 chamadas igual a
_
9
2
_
(0, 5)
9
=
9
128
. Porm, este clculo ignora a
possibilidade de que mais de uma chamada possa ocorrer em um nico intervalo. Ento, por
que no aumentar o nmero n de subintervalos de tempo de modo que cada subintervalo
corresponda a
180
n
segundos e portanto a probabilidade de ocorrncia de uma chamada em um
subintervalo seja igual a p = 1, 5
180
60n
? Desta maneira np = 4, 5 permanece constante quando
o nmero de subintervalos cresce. Utilizando novamente o modelo binomial, a probabilidade
de ocorrerem k chamadas dada por:
_
n
k
_
(
4,5
n
)
k
(1
4,5
n
)
nk
. O que acontece com esta
probabilidade quando n ? A resposta, como ser visto a seguir, que esta distribuio
tende a uma distribuio de Poisson, sendo este resultado conhecido como limite de eventos
raros.
Seja a expresso geral da probabilidade binomial,
P(X = k) =
_
n
k
_
p
k
(1p)
nk
=
n!
k!(n k)!
p
k
(1p)
nk
=
n(n 1) (n k + 1)
k!
p
k
(1p)
nk
.
Como o objetivo estudar o caso em que np constante, seja np = , ou seja, p =

n
e
1 p =
n
n
. Ento,
P(X = k) =
n(n 1) (n k + 1)
k!
(

n
)
k
(
n
n
)
nk
=

k
k!
((1)(1
1
n
) (1
k 1
n
)(1

n
)
nk
Fazendo n , os termos da forma (1
j
n
), para 1 j k 1, tendem para 1 e
como existe um nmero xo k 1 deles, o seu produto tambm tende a 1. O mesmo ocorre
com (1

n
)
k
. Finalmente, por denio do nmero e, tem-se que (1

n
)
n
e

quando
n . Portanto,
4
de P. Meyer pg. 187
Campos & Rgo
7.4. GEOMTRICA DE PARMETRO P, G(P) 145
lim
n,po,=np
P(X = k) =
e

k
k!
,
ou seja obteve-se a expresso de Poisson.
Exemplo 7.3.4: Ao formar nmeros binrios com n dgitos, a probabilidade de que um
dgito incorreto possa aparecer 0.002. Se os erros forem independentes, qual a proba-
bilidade de encontrar k dgitos incorretos em um nmero binrio de 25 dgitos? Se um
computador forma 10
6
desses nmeros de 25 dgitos por segundo, qual a probabilidade de
que pelo menos um nmero incorreto seja formado durante qualquer perodo de 1 segundo?
Soluo: A probabilidade de que k dgitos sejam incorretos em um nmero binrios de 25
dgitos igual a
_
25
k
_
(0.002)
k
(0.998)
25k
. Em particular, a probabilidade de que pelo menos
um dgito seja incorreto igual a 1 (0.998)
25
0.049. Usando a aproximao pela Poisson
ento tem-se uma Poisson com parmetro 25 0.002 = 0.05, logo a probabilidade de pelos
menos um dgito incorreto neste nmero de 25 dgitos 1 e
0.05
0.049.
A probabilidade de que pelo menos um nmero incorreto seja formado durante um perodo
de 1 segundo igual a 1 (0.049)
10
6
1 e
49000
1.
7.4 Geomtrica de parmetro p, G(p)
A geomtrica pode ser utilizada para modelar o nmero de repeties do lanamento de uma
moeda at a primeira ocorrncia de cara, tempo de espera medido em unidades de tempo
inteiras at a chegada do prximo consumidor em uma la, ou at a prxima emisso de um
fton. Esta varivel, assim como as anteriores, tambm uma varivel de contgem, s que
ela est relacionada primeira ocorrncia de sucesso do evento A de interesse na modelagem.
Por exemplo, se o evento de interesse a ocorrncia do primeiro 1 numa string de zeros e
uns, se a varivel assumir o valor 10, a string observada foi 0000000001.
(i) Distribuio de probabilidade.
P(X = k) = q
k1
p, k {1, 2, 3, . . .}.
Utilizando o resultado de uma soma innita de uma progresso geomtrica ilimitada
de razo | r |< 1,

k=1
P(X = k) =

k=1
q
k1
p = p

k=1
q
k1
= 1.
Logo, esta uma legtima funo probabilidade de massa.
(ii) Esperana.
Campos & Rgo
7.4. GEOMTRICA DE PARMETRO P, G(P) 146
E(X) =

k=1
kP(X = k) =

k=1
kq
k1
p
= p

k=1
kq
k1
= p

k=1
d
dq
q
k
= p
d
dq

k=1
q
k
= p
d
dq
(
q
1 q
) =
1
p
.
(iii) Varincia. Usando a funo geratriz de momentos (a qual ser vista em captulo pos-
terior) tem-se que
E(X)
2
=
1 +q
p
2
.
Logo,
V (X) =
1 +q
p
2

1
p
2
=
q
p
2
.
Exemplo 7.4.1: Suponha que joga-se uma moeda independentemente at que uma coroa
ocorra. Sabe-se que probabilidade de cara igual a 0 < p < 1. Seja X o nmero de repeties
necessrias at que coroa aparea pela primeira vez na sequncia. Qual a probabilidade
do evento {X = k} para k {1, 2, 3, . . .}? Note que para que X = k necessrio que
os primeiros k 1 lanamentos sejam caras e o k-simo lanamento seja coroa, logo, pela
independncia dos lanamentos, P(X = k) = p
k1
q. Ou seja X uma varivel geomtrica
de parmetro q.
Exemplo 7.4.2: Suponha que X tenha uma distribuio geomtrica com parmetro .
Mostre que para quaisquer dois inteiros positivos s e t,
P(X > s + t|X > s) = P(X > t).
Soluo:
P(X > s + t|X > s) =
P(X > s + t, X > s)
P(X > s)
=
P(X > s + t)
P(X > s)
.
Mas
P(X > s + t) =

k=s+t+1
(1 )
k1
= (1 )
s+t
.
Similarmente, P(X > s) = (1 )
s
e P(X > t) = (1 )
t
. Portanto,
P(X > s + t|X > s) =
(1 )
s+t
(1 )
s
= (1 )
t
= (X > t).
Esta propriedade da distribuio geomtrica conhecida como falta de memria
5
.
5
Como ser visto no captulo seguinte, a varivel Exponencial tambm tem essa prorpiedade.
Campos & Rgo
7.5. PASCAL DE PARMETROS R E P, PS(P, R) 147
7.5 Pascal de parmetros r e p, Ps(p, r)
Esta distribuio pode ser considerada como uma generalizao da distribuio geomtrica.
Suponha que o interesse seja calcular a probabilidade de que um experimento tenha de ser
repetido k vezes para que um evento A ocorra r vezes. Seja X o nmero de repeties
necessrias a m de que um evento A possa ocorrer exatamente r vezes. X = k se, e
somente se, A ocorrer na k-sima repetio e A tiver ocorrido r 1 vezes nas (k 1)
repeties anteriores. Uma possvel realizao do experimento
A . . . A
. .
kr
A. . . A
. .
r
.
Assumindo independncia entre os eventos, a probabilidade acima corresponde a
q . . . q
. .
kr
p . . . p
. .
r
= q
kr
p
r
.
Mas, quantas realizaes distintas desse evento so possveis? A resposta
_
k1
r1
_
. Portanto,
(i) Distribuio de probabilidade.
P(X = k) =
_
k 1
r 1
_
p
r
q
kr
, k r.
Se r = 1, tem-se que X tem uma distribuio geomtrica com parmetro p.
(ii) Esperana.
Para calcular E(X) e V (X) pode-se proceder da seguinte maneira. Seja Z
1
, Z
2
, . . . uma
sequncia de variveis aleatrias tal que Z
1
o nmero de repeties do experimento at
a primeira ocorrncia de um evento A, Z
i
o nmero de repeties do experimento entre
a (i 1)-sima at e incluindo a i-sima ocorrncia de A, para i = 2, 3, . . . , r. Ento,
as variveis Z
i
so independentes, cada uma delas tem uma distribuio geomtrica
com parmetro p e tem-se que X = Z
1
+Z
2
+ +Z
r
. Logo, X pode ser considerada
como uma soma de r geomtricas independentes, portanto, usando propriedades da
esperana e da varincia,
E(X) =
r
p
e
V (X) =
r(1 p)
p
2
.
Calculando a esperana matemtica pela denio de esperana tem-se que: REVER
ESTA DEMONST.
Campos & Rgo
7.5. PASCAL DE PARMETROS R E P, PS(P, R) 148
E(X) =

k=r1
k
_
k
r 1
_
p
r
(1 p)
kr+1
= (

k=r1
(k + 1)
_
k
r 1
_
p
r
(1 p)
kr+1
) 1
= (

k=r1
(k + 1)k!
(r 1)!(k r + 1)!
p
r
(1 p)
kr+1
) 1
=
r
p
(

k=r1
(k + 1)!
r!(k + 1 r)!
p
r+1
(1 p)
k+1r
) 1
Substituindo j = k + 1 e s = r + 1 no somatrio,
E(X) =
r
p
(

j=s1
(j)!
(s 1)!(j s + 1)!
p
s
(1 p)
js+1
) 1 =
r
p
1.
Para o clculo acima utilizou-se o fato que o somatrio igual a soma da funo
probabilidade de massa de uma varivel aleatria Binomial Negativa para todos os
valores que tm probabilidade positiva, e portanto, igual a 1.
(iii) Varincia.
Exemplo 7.5.1:
Suponha que X tenha distribuio binomial com parmetros n e p e Y tenha uma dis-
tribuio de Pascal com parmetros r e p. Portanto, P(X r) = P(Y n).
Estas duas distribuies tratam de ensaios de Bernoulli repetidos. A distribuio binomial
surge quando se tem um nmero xo de ensaios e o interesse o nmero de sucessos que
venham a ocorrer. A distribuio de Pascal encontrada quando o nmero de sucessos xo,
r, e o que registrado o nmero de ensaios necessrios para a obteno dos r sucessos.
Pascal ou binomial negativa? Jain [???] (pgina 492) considera Pascal e binomial negativa
distintas. A binomial negativa denida como sendo o nmero de falhas antes de ocorrerem
r sucessos. Portanto, se k = 4 e r = 3, possveis realizaes do experimento so:
A A A A A A A,
A A A A A A A.
Cada um dos eventos acima tem probabilidade p
3
q
4
. Mas, quantos so? Como a ltima
posio est xa, tem-se
_
4+2
2
_
arrumaes. Portanto,
P(X = k) =
_
k + (r 1)
r 1
_
p
r
q
k
, k = 0, 1, . . .
Quando k = 0 ento ocorreu A A . . . A
. .
r
.
Grinstead e Snell, pgina 186, chamam a Pascal de binomial negativa. Para Meyer,
pgina 204, a distribuio de Pascal pode ser chamada de binomial negativa.
Campos & Rgo
7.6. HIPERGEOMTRICA DE PARMETROS N, D, E N, H(N, N, R) 149
7.6 Hipergeomtrica de parmetros N, D, e n, H(n, N, r)
A distribuio hipergeomtrica descreve o nmero de sucessos em uma sequncia de n amos-
tras retiradas sem reposio de uma populao nita.
Por exemplo, considere que tem-se uma carga com N objetos dos quais D so defeituosos.
A distribuio hipergeomtrica descreve a probabilidade de que em uma amostra de n objetos
distintos escolhidos da carga aleatoriamente exatamente k objetos sejam defeituosos.
(i) Distribuio de probabilidade.
P(X = k) =
_
D
k
__
ND
nk
_
_
N
n
_ .
Esta probabilidade positiva se: N D n k, ou seja k max(0, D + n N) e
k min(n, D).
Esta frmula pode ser entendida assim: existem
_
N
n
_
possveis amostras sem reposio,
_
D
k
_
maneiras de escolher k objetos defeituosos e
_
ND
nk
_
maneiras de preencher o resto
da amostra com objetos sem defeito.
Quando a populao grande quando comparada ao tamanho da amostra (ou seja, N
for muito maior que n) a distribuio hipergeomtrica aproximada razoavelmente bem
por uma distribuio binomial com parmetros n (tamanho da amostra) e p = D/N
(probabilidade de sucesso em um nico ensaio).
(ii) Esperana.
E(X) =
n

k=0
k
_
D
k
__
ND
nk
_
_
N
n
_ =
n

k=1
D!(N D)!(N n)!n!
k!(D k)!(n k)!(N Dn + k)!N!
=
nD
N
n

k=1
(D 1)!(N D)!(N n)!(n 1)!
(k 1)!(Dk)!(n k)!(N D n + k)!(N 1)!
=
nD
N
n

k=1
_
D1
k1
__
ND
nk
_
_
N1
n1
_
Substituindo no somatrio D

= D 1, k

= k 1, n

= n 1 e N

= N 1,
E(X) =
nD
N
n

=0
_
D

__
N

_
_
N

_ =
nD
N
.
O somatrio acima igual a soma da funo probabilidade de massa de uma vari-
vel aleatria Hipergeomtrica para todos os valores que tem probabilidade positiva, e
portanto, igual a 1.
(iii) Varincia.
Campos & Rgo
7.7. ZETA ZIPF DE PARMETRO > 1, Z() 150
Exemplo 7.6.1: Suponha que uma urna contm 20 bolas brancas e 10 bolas pretas. Se 4
bolas so retiradas da urna. Determine:
(a) A probabilidade de pelo menos uma bola ser branca, se as bolas so retiradas com
reposio.
(b) A probabilidade de pelo menos uma bola ser branca, se as bolas so retiradas sem
reposio.
Exemplo 7.6.2: Por engano 3 peas defeituosas foram misturadas com boas formando um
lote com 12 peas no total. Escolhendo ao acaso 4 dessas peas, determine a probabilidade
de encontrar:
(a) Pelo menos 2 defeituosas.
(b) No mximo 1 defeituosa.
(c) No mnimo 1 boa.
7.7 Zeta Zipf de parmetro > 1, Z()
A funo probabilidade Zeta ou Zipf um exemplo de uma distribuio de cauda pesada
cuja importncia cresceu bastante desde meados dos anos 1990. As aplicaes desta funo
de probabilidade incluem: nmero de consumidores afetados por um blackout, tamanhos de
arquivos solicitados em transferncia via Web e atraso de pacotes na internet.
(i) Distribuio de probabilidade.
P(X = k) =
k

()
, k = 1, 2, . . .
() =

j=1
j

conhecida como a funo Zeta de Riemann.


(ii) Esperana.
E(X) =

k=1
k
k

()
=
1
()

k=1
k
(1)
=
( 1)
()
, > 1.
(iii) Varincia.
E(X
2
) =

k=1
k
2
k

()
=
1
()

k=1
k
(2)
=
1
()
( 2), > 2.
Logo,
V (X) =
1
()
( 2) (
( 1)
()
)
2
.
Campos & Rgo
7.8. MULTINOMIAL 151
Exemplo 7.7.1: Os tamanhos de arquivos armazenados em um grande sistema de arquivos
Unix segue uma distribuio Zeta com parmetro quando estes tamanhos so medidos em
kilobytes.
(a) Se os tamanhos dos arquivos de 1KB so 10000 vezes mais provveis que tamanhos de
arquivos de 1MB, ento qual o valor do parmetro ?
(b) Quanto mais provvel so tamanhos de arquivos de 1MB em comparao com tamanhos
de arquivos de 1GB?
7.8 Multinomial
A Multinomial uma distribuio conjunta de variveis aleatrias discretas, que pode ser
considerada como uma generalizao da distribuio binomial.
Considere um experimento aleatrio qualquer e suponha que o espao amostral deste ex-
perimento particionado em k eventos {A
1
, A
2
, . . . , A
k
}, onde o evento A
i
tem probabilidade
p
i
. Suponha que se repita este experimento n vezes de maneira independente e seja X
i
o
nmero de vezes que o evento A
i
ocorreu nestas n repeties. Ento,
P(X
1
= n
1
, X
2
= n
2
, . . . , X
k
= n
k
) =
n!
n
1
!n
2
! n
k
!
p
n
1
1
p
n
2
2
p
n
k
k
,
onde

k
i=1
n
i
= n.
Lembrando que o nmero de maneiras de arranjar n objetos, n
1
dos quais de uma
espcie, n
2
dos quais de uma segunda espcie, . . ., n
k
dos quais so de uma k-sima espcie
dado pelo coeciente multinomial
n!
n
1
!n
2
!n
k
!
.
7.9 Exerccios
1. Num canal de transmisso com rudo, so transmitidas independentemente 20 cpias de
um mesmo pacote. Seja 0.4 a probabilidade de transmisso com sucesso de qualquer
uma das cpias. Considere o nmero de cpias enviadas com sucesso com sendo a
varivel aleatria de interesse.
(a) Especique a distribuio de probabilidade ou funo de densidade dessa varivel
aleatria.
(b) Qual a probabilidade de que todas as cpias sejam enviados com sucesso.
2. Uma mensagem, enviada em cdigo binrio, consiste de uma sequncia de smbolos 0
ou 1 todos com igual probabilidade e independentes uns dos outros. Uma sequncia
do mesmo smbolo do tipo 000 0 ou 11, etc. Seja uma dessas sequncias tomadas
aleatoriamente. A varivel X o nmero de smbolos iguais na sequncia. Encontre
P(X k).
Campos & Rgo
7.9. EXERCCIOS 152
3. Uma fbrica produz 10 recipientes de vidro por dia. Deve-se supor que exista uma
probabilidade constante p = 0.1 de produzir um recipiente defeituoso. Antes que esses
recipientes sejam estocados, eles so inspecionados e os defeituosos so separados. Ad-
mita que exista uma probabilidade constante r = 0.1 de que um recipiente defeituoso
seja mal classicado. Faa X igual ao nmero de recipients classicados como defei-
tuosos ao m de um dia de produo. (Admita que todos os recipientes fabricados em
um dia seja inspecionados naquele dia).
(a) Obtenha a expresso de P(X = k).
(b) Calcule P(X 2).
4. Uma rodovia est dividida em 8 trechos de igual comprimento, cada qual sob jurisdio
de uma guarnio de polcia rodoviria e todos igualmente perigosos. Sabendo-se que
nessa rodovia h, em mdia, 6 desastres por dia, calcular a probabilidade de que, (a)
em determinado dia haja quatro trechos sem desastre, (b) 3 trechos com um desastre
cada e (c) um trecho com mais de um desastre.
5. Seja uma varivel aleatria Binomial de parmetros n e p, P(X = k) =
_
n
k
_
p
k
(1
p)
nk
, k = 0, . . . , n. Qual o valor de p onde P(X = k) atinge um mximo, ou mnimo,
quando n par e k a metade de n?
6. Seja X o nmero obtido de 1s em um nmero binrio escrito na expanso b-dica,
preciso simples, normalizado (1 dgito para o sinal, 8 para o expoente e 23 para a
mantissa). Estabelea a distribuio de probabilidade de X. (IEEE Task P754, Draft
8.0, March 1981, pp. 51-62, Computer)
7. Que mais provvel, quando voc compete com uma pessoa to hbil quanto voc:
(a) voc ganhar trs jogos de quatro ou cinco jogos de oito?
(b) no menos que trs jogos de quatro ou pelo menos cinco jogos de oito?
8. Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defei-
tuoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote com-
prado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 defei-
tuoso?
9. Um nmero binrio de n dgitos escrito onde cada dgito 0 ou 1 independente-
mente uns dos outros. A varivel aleatria X o nmero de dgitos 1. Encontre a
probabilidade dos seguintes eventos: (a) {X = m}; (b) {X m}; (c) {X < m}.
Campos & Rgo
7.9. EXERCCIOS 153
10. Considere um nmero escrito na expanso b-dica
x = d
n
d
n1
. . . d
1
d
0
.d
1
d
2
. . . =

i=n
d
i
b
i
,
com = +, b = 10 e 3 dgitos na mantissa. Suponha tambem que d
i
= 0, , 9
independentemente e com a mesma probabilidade. A varivel aleatria X representa
cada um dos possveis nmeros x. Construa a distribuio de probabilidade de X e
encontre seu valor mdio.
11. Um tcnico necessita 4 placas para montar um determinado circuito. Encontra 10 na
sua ocina, mas sabe que 4 esto defeituosas. Seleciona ento 5 dentre as 10 placas.
Encontre a probabilidade de que no menos que 4 dentre as 5 estejam perfeitas.
12. Uma varivel aleatria Y uma frao prpria com n casas decimais. Cada dgito,
independentemente uns dos outros, pode ser 0 ou 1 com probabilidade 1/2. Construa
a distribuio de probabilidade de Y e encontre seu valor mdio.
13. Uma varivel aleatria X tem uma distribuio de Poisson com mdia 3. Encontre a
probabilidade de que
(a) X assuma valores menores que sua mdia.
(b) X assuma valores positivos.
14. Revisadas as provas de um livro, vericou-se que h, em mdia, 2 erros em cada 5
pginas. Em um livro de 100 pginas, estimar quantas no precisam ser modicadas,
por no apresentarem erros.
15. O nmero de mensagens que chegam em uma rede tem uma distribuio geomtrica
com parmetro p. Para p = 0.2, calcule a mdia, varincia, desvio padro, o coeciente
de variao e plote a distribuio de probabilidade.
16. O nmero de pedidos de I/O recebidos por um disco durante um dado intervalo de
tempo segue uma distribuio de Poisson com parmetro . Para = 8 determine a
mdia, varincia, desvio padro e o coeciente de variao e plote a distribuio de
probabilidade.
17. Dois processos de Poisson emergem em um disco. Cada um deles tem, respectivamente,
parmetros
x
e
y
. Determine o seguinte:
(a) Mdia de x + y.
(b) Varincia de x + y.
(c) Mdia de x y.
(d) Varincia de x y.
(e) Mdia de 3x 4y.
Campos & Rgo
7.9. EXERCCIOS 154
(f) Coeciente de variao de 3x 4y.
18. Um disco rgido recebe em mdia 2 pedidos de I/O a cada 17 msec, segundo uma
distribuio de Poisson.
(a) Qual a probabilidade de que o nmero de pedidos seja maior que 1, no mesmo
tempo considerado?
(b) Este disco observado durante 10 intervalos de mesmo tempo acima. Qual a
probabilidade de que em ao menos um dos 10 intervalos de tempo o nmero de
pedidos seja maior que 1?
(c) Qual ser a probabilidade de que em 34 msec o nmero de pedidos seja maior que
1?
19. Use a aproximao de Poisson para calcular a probabilidade de que no mximo 2 dentre
50 motoristas tenham perdido pontos na carteira de habilitao, se usualmente 5% os
perdem.
20. Uma companhia de erea nacional tem observado que 5% das pessoas que fazem reserva
para um determinado vo desistem. A companhia decide ento vender 20 bilhetes para
este vo quando s dispe de 18 lugares. Qual a probabilidade do avio acomodar todos
os passageiros?
21. Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecio-
nado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subseqentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quan-
tidade de informao obtida, a qual pode ser expressa como um ganho nanceiro de
c dlares. Seja T o custo lquido desse experimento.
(a) Estabelea a distribuio de probabilidade de T.
(b) Determine o custo lquido esperado.
22. O computador de uma fbrica, que trabalha ininterruptamente, eventualmente falha.
O nmero de falhas pode ser considerado um processo de Poisson, com nmero mdio
de falhas por dia de 1.5; encontre as probabilidades dos seguintes eventos:
(a) A = {o computador falha pelo menos uma vez durante o dia},
(a) B = {o computador falha no menos que trs vezes durante uma semana}.
23. Num processo de fabricao 10% das peas so consideradas defeituosas. As peas so
acondicionadas em caixas com 5 unidades cada uma.
(a) Qual a probabilidade de haver exatamente 3 peas defeituosas numa caixa?
Campos & Rgo
7.9. EXERCCIOS 155
(b) Qual a probabilidade de haver duas ou mais peas defeituosas numa caixa?
24. Um cubo formado com chapas de plstico de 10 10cm. Em mdia aparecem 50
defeitos a cada metro quadrado de plstico, segundo uma distribuio de Poisson.
(a) Qual a probabilidade de uma determinada face apresentar exatamente 2 defeitos?
(b) Qual a probabilidade de que pelos menos 5 faces sejam perfeitas?
(c) Qual a probabilidade de que o cubo apresente no mnimo 2 defeitos?
25. Um laboratrio tem 15 pcs dos quais 5 esto desligados. Um grupo de 6 estudantes
entra na sala e, aleatoriamente, cada um escolhe um pc. Qual a probabilidade de que,
entre os escolhidos
(a) exatamente dois estejam desligados?
(b) pelo menos um esteja ligado?
(c) pelo menos dois estejam desligados?
26. Um carro s tem 4 semforos em seu percurso. Em cada um deles, independentemente,
a probabilidade do carro parar p. Seja uma varivel aleatria X, denida como sendo
o nmero de semforos que o carro passa antes de parar pela primeira vez.
(a) Estabelea a distribuio de probabilidade de X. Prove que a expresso encontrada
realmente uma distribuio de probabilidade.
(b) Calcule o nmero mdio de semforos nos quais o carro passa antes de parar pela
primeira vez, para p = 1/4.
27. Pacientes chegam a um laboratrio mdico de acordo com uma distribuio de Poisson,
com uma mdia de 2 pacientes a cada 15 minutos.
(a) Sabendo-se que o laboratrio abre s 6:00, determine a probabilidade de que che-
guem exatamente 4 pacientes at 6:30.
(b) O laboratrio funciona das 6:00 s 20:00, sem interrupo. Seja X o nmero
de horas nesse perodo em que chegam exatamente 8 pacientes. Estabelea a
distribuio de probabilidade de X.
28. Admita que o nmero de navios que chegam a um porto segue uma distribuio de
Poisson de mdia igual a dois navios por dia.
(a) Qual a probabilidade de que, em um dia qualquer, cheguem, no mximo, 3
navios?
(b) A chegada de navios a esse porto observada durante 200 dias. Nesse perodo,
qual o nmero esperado de dias em que chega apenas um navio?
Campos & Rgo
7.9. EXERCCIOS 156
29. Uma fonte mineral contm um nmero mdio de 4 bactrias por centmetro cbico. Dez
tubos de ensaio so enchidos com esse lquido. Supondo que a distribuio de Poisson
aplicvel, encontre a probabilidade de que todos os 10 tubos de ensaio apresentem
bactrias.
30. Na produo de certo tipo de tecidos, os defeitos de produo ocorrem de acordo com
um processo de Poisson com taxa de um defeito por cada 2 m
2
.
(a) Qual a probabilidade de que um corte de 2.5 m
2
tenha um ou mais defeitos?
(b) Qual a probabilidade de que em trs cortes de 2.5 m
2
, dois sejam perfeitos e um
tenha um nico defeito?
31. Numa estrada pouco movimentada passam, em mdia, 2 carros por minuto. Supondo
a mdia estvel, calcule a probabilidade de que em 2 minutos passem (a) mais de 1
carro, (b) exatamente 4 carros.
32. Um celular recebe em mdia 2 chamadas por hora. Qual a probabilidade de que em 4
horas receba (a) no mximo 2 chamadas? (b) exatamente 3 chamadas.
33. Um sistema de computador tem 10 linhas de comunicao cada uma operando inde-
pendentemente uma da outra. Sabe-se que a probabilidade de que uma linha esteja
em uso 0.6.
(a) Qual a probabilidade de que 9 ou mais linhas estejam ocupadas?
(b) O administrador do sistema resolve aumentar o nmero de linhas para 30. Neste
caso, qual a probabilidade de que 9 ou mais delas estejam ocupadas?
Campos & Rgo
Captulo 8
Principais Variveis Aleatrias
Contnuas
Neste captulo sero exploradas as principais variveis aleatrias contnuas unidimensionais.
A distribuio Normal tanto aplicada em problemas prticos quanto tericos, pois b-
sica para o desenvolvimento de outras variveis aleatrias. As distribuies Exponencial,
Lognormal, Pareto e Weibull so fundamentais em modelagem de desempenho de sistemas
e conabilidade. Distribuies como a t-Student,
2
e F so teis no clculo de intervalos
de conana e em teste de hipteses.
8.1 Uniforme de parmetros a e b, U(a, b)
(i) Se X U(a, b), ento X possui densidade igual a
f
X
(x) =
_
1
ba
, x (a, b),
0, x (a, b).
(ii) Esperana.
E(X) =
_
b
a
x
b a
dx =
a + b
2
.
(iii) Varincia.
(iv) Funo de distribuio acumulada.
F
X
(x) =
_
_
_
0, x < a,
_
x

1
ba
dt =
xa
ba
, a x < b,
1, b x < +.
Exemplo 8.1.1:
157
8.2. EXPONENCIAL DE PARMETRO > 0, EXP() 158
8.2 Exponencial de parmetro > 0, Exp()
A densidade exponencial pode ser utilizada para modelar (i) o tempo de vida de componentes
que falham sem efeito de idade, (ii) o tempo de espera entre sucessivas chegadas de ftons,
(iii) emisses de eltrons de um ctodo, (iv) chegadas de consumidores, e (v) dura de
chamadas telefnicas, entre outros.
(i) Se X Exp(), ento X possui densidade igual a
f
X
(x) =
_
f
X
(x) = e
x
, x > 0,
0, x 0.
(ii) Esperana.
E(X) =
_

0
xe
x
dx = xe
x
|

0
+
_

0
e
x
dx =
e
x

0
=
1

.
(iii) Varincia.
Para o clculo da varincia, inicialmente ser calculado o segundo momento.
E(X)
2
=
_

0
x
2
e
x
dx = x
2
e
x
|

0
+ 2
_

0
xe
x
dx =
2

2
.
Portanto,
V (X) = E(X)
2
(E(X))
2
=
2

2

1

2
=
1

2
.
(iv) Funo de distribuio acumulada.
F
X
(x) =
_
0, x < 0,
_
x

e
t
dt = 1 e
x
, x 0.
(v) Falta de memria. A distribuio exponencial possui a propriedade de falta de memria,
ou seja, para quaisquer s 0 e t 0, tem-se que
P(X > s + t|X > s) = P(X > t).
Para vericar este fato, note que
P(X > s + t|X > s) =
P(X > s + t, X > s)
P(X > s)
=
P(X > s + t)
P(X > s)
.
Mas
P(X > s + t) =
_

s+t
e
x
dx = [e
x
]

s+t
= e
(s+t)
.
Campos & Rgo
8.3. NORMAL DE PARMETROS E , N(,
2
) 159
Similarmente,
P(X > s) = e
s
.
Portanto,
P(X > s + t|X > s) = e
t
= P(X > t).
Exemplo 8.2.1: Observa-se que um tipo particular de chip, que tem durao de vida
exponencial, igualmente provvel durar menos que 5000 horas ou mais que 5000 horas.
(a) Determine o tempo de durao mdio de um chip deste tipo.
(b) Qual a probabilidade que o chip dure menos de 1000 horas ou mais de 10000 horas?
Soluo: Seja X o tempo de durao deste chip. Para resolver o problema preciso de-
terminar seu par2metro. Sabe-se que P(X < 5000) = P(X > 5000), e como P(X <
5000) +P(X > 5000) = 1, tem-se que P(X < 5000) = 0.5. Portanto, 1 e
(5000)
= 0.5, ou
seja, =
log 2
5000
. Ento, o tempo de durao mdio deste tipo de chip
5000
log 2
horas.
Para calcular a probabilidade pedida,
P([X < 1000] [X > 10000]) = P(X < 1000) +P(X > 10000) = 1 e

log 2
5
+ e
2 log 2
= 1 (2)

1
5
+ (2)
2
= 1 0,8706 + 0,25 = 0,3794.
8.3 Normal de parmetros e , N(,
2
)
(i) Se X N(,
2
), sua densidade
f
X
(x) =
1

2
e
(x)
2
2
2
.
Para vericar que esta realmente 9 uma fun73o densidade de probabilidade, realiza-se
a seguinte substituio de variveis t =
x

, obtendo-se:
_

2
e
(x)
2
2
2
dx =
_

2
e
t
2
2
dt = I.
Para calcular I
2
utiliza-se o seguinte artifcio.
I
2
=
1
2
_

e
t
2
2
dt
_

e
s
2
2
ds =
1
2
_

e
(t
2
+s
2
)
2
dtds.
Fazendo a mudana de varivel t = r cos e s = rsen, tem-se:
Campos & Rgo
8.3. NORMAL DE PARMETROS E , N(,
2
) 160
I
2
=
1
2
_
2
0
_

0
re
r
2
2
drd
=
1
2
_
2
0
e
r
2
2
|

0
d
=
1
2
_
2
0
1d = 1.
Portanto, I = 1.
Historicamente esta distribuio foi chamada de normal porque era amplamente apli-
cada em fenmenos biolgicos e sociais. Aplicaes da distribuio normal incluem
rudo trmico em resistores e em outros sistemas fsicos que possuem um componente
dissipativo; rudos de baixa-frequncia como os em encontrados em amplicadores de
baixa frequncia; variabilidade em parmetros de componentes manufaturados; com-
portamento de variveis em organismos biol3gicos como, por exemplo, altura e peso.
1
A Figura 8.3 mostra a funo probabilidade de massa da Normal para quatro pares de
parmetros. Observe que a densidade simtrica em torno do parmetro , e quanto
menor o parmetro mais concentrada a densidade em torno de . Pode-se provar
que os pontos e + so os pontos de inexo do grco de f
X
. Ser visto
adiante que e
2
so a esperana e a varincia da distribuio, respectivamente. Se
= 0 e
2
= 1 esta densidade chamada na literatura de normal padro ou normal
reduzida.
(ii) Esperana
E(X) =
_

x
1

2
e
(x)
2
2
2
dx.
Fazendo a mudana de varivel y =
x

, tem-se
E(X) =
_

y +

2
e
y
2
2
dy =
_

2
e
y
2
2
dy +
_

2
e
y
2
2
dy = 0 + = .
(iii) Varincia.
Para o clculo do segundo momento tambm realizada a mudana de varivel y =
x

,
logo
1
Pode parecer estranho modelar quantidades que s assumem valores positivos por uma distribuio
normal onde valores negativos aparecem. Nestes casos o que ocorre que os parmetros e
2
devem ser
escolhidos de modo que a probabilidade da varivel assumir um valor negativo seja aproximadamente nula
de modo que a representao seja vlida.
Campos & Rgo
8.3. NORMAL DE PARMETROS E , N(,
2
) 161
E(X
2
) =
1

2
_

(y + )
2
e
z
2
2
dz
=

2

2
_

z
2
e
z
2
2
dz + 2
1

2
_

ze
z
2
2
= +
2
1

2
_

e
z
2
2
dz.
A segunda parcela, pela resultado da esperana da normal padro igual a zero. A
ltima parcela pelo resultado da integral da densidade da normal igual a
2
. Para
calcular a primeira parcela usa-se integral por partes onde u = z e dv = ze
z
2
2
, obtendo-
se
E(X
2
) =

2

2
(ze
z
2
2
|

+
_

e
z
2
2
dz) +
2
=
2
+
2
.
O seguinte teorema arma que transformaes lineares de variveis aleatrias com dis-
tribuio normal tambm so normalmente distribudas.
Teorema 8.3.1: Se X N(,
2
) e se Y = aX + b, onde a > 0 e b IR, ento Y ter
distribuio N(a + b, a
2

2
).
Prova: Note que
F
Y
(y) = P(Y y) = P(X
y b
a
) = F
X
(
y b
a
).
Campos & Rgo
8.3. NORMAL DE PARMETROS E , N(,
2
) 162
Derivando a expresso acima em relao a y,
f
Y
(y) =
1
a
f
X
(
y b
a
) =
1

2a
e
(
yb
a
)
2
2
2
=
1

2a
e
(y(b+a))
2
2a
2

2
,
ou seja, Y N(a + b, a
2

2
).
Corolrio 8.3.2: Se X N(,
2
), ento Y =
X

tem distribuio normal padro.


Pode-se provar que se X
i
N(
i
,
2
i
) so independentes, e a
i
IR, para i = 1, 2, 3, . . .,
ento Y = c +

n
i=1
a
i
X
i
tambm tem distribuio normal com mdia E(Y ) = c +

n
i=1
a
i

i
e varincia V (Y ) =

n
i=1
(a
i

i
)
2
.
8.3.1 Tabulao da Distribuio Normal
Se X N(0, 1), ento
P(a < X b) =
_
b
a
1

2
e
x
2
2
dx.
Esta integral no pode ser resolvida analiticamente, contudo mtodos numricos de in-
tegrao podem ser empregados para calcular integrais da forma acima e de fato valores de
P(X s) existem em vrias tabelas. A funo de distribuio acumulada de uma normal
padro usualmente denotada por . Portanto,
(s) =
_
s

2
e
x
2
2
dx.
Ento, consultando valores de em uma tabela, pode-se determinar que P(a < X b) =
(b) (a).
Utilizando o resultado do Corol1rio 8.3.2 e valores de , pode-se obter para qualquer
X N(,
2
), o valor de P(a < X b):
P(a < X b) = P(
a

<
X

)
= (
b

) (
a

)
Em especial o interesse pode ser calcular P( k X + k), usando o resultado
acima tem-se que esta probabilidade igual a (k) (k).
Da simetria em torno de zero da normal padro, segue-se que (s) = P(X s) = P(X
s) = 1 (s) para qualquer valor de s. Esta relao pode ser til, pois frequentemente
tabelas da distribuio normal padro s possuem os valores positivos de s.
Exemplo 8.3.3: Suponha que X tenha uma distribuio N(2, 0.16). Empregando uma
tabela de distribuio normal calcule as seguintes probabilidades:
Campos & Rgo
8.4. PARETO 163
(a) P(X 2.3).
P(X 2.3) = 1 P( 2.3) = 1 (
2.3 2
0.4
) = 1 (0.75) = 1 0.7734 = 0.2266.
(b) P(1.8 X 2.1).
P(1.8 X 2.1) = (
2.1 2
0.4
)(
1.8 2
0.4
) = (0.25)(0.5) = 0.59870.3085 = 0.2902.
Exemplo 8.3.4: Um equipamento com dois terminais com uma resistncia equivalente
de 1 Megohm opera em uma sala com temperatura de 300K. A voltagem trmica, V , que
ele gera observada na banda de 1.5GHz at 2.5GHz. Qual a probabilidade de que a
magnitude da voltagem exceda 8 milivolts? Assuma que V N(0,
2
), onde
2
= 4TRB,
a constante de Boltzman que igual a 1.38 10
23
, V medido em volts, T medido
em graus Kelvin, R medido em ohms, e B medido em Hertz.
Soluo: Das informaes calcula-se que
2
= 4(1.38 10
23
)(300)(10
6
)(10
9
) = 16.5
10
6
. Logo, 0.004. Portanto,
P(|V | > 0.008) = P(V > 0.008) +P(V < 0.008) = (1 (
0.008 0
0.004
)) + (
0.008 0
0.004
)
= 1 (2) + (2) = 2(1 (2)) = 2(1 0.9772) = 0.456.
8.4 Pareto
X tem uma distribuio de Pareto com parmetros e , onde e so nmeros reais
positivos, se a funo densidade de X igual a
f
X
(x) =

x
1
U(x ).
A distribuio de Pareto o exemplo fundamental de uma distribuio de caudas-pesadas.
Ela pode ser utilizada para modelar distribuio de riquezas, atrasos em transmisso de
pacotes e durao de sesses de Internet, entre outros.
8.5 Weibull
8.6 Lognormal
8.7 Gama
X tem uma distribuio Gama com parmetros e , onde > 0 e > 0 so nmeros
reais, se a funo densidade de X igual a
Campos & Rgo
8.8. QUI-QUADRADO 164
f
X
(x) =

()
x
1
e
x
U(x).
Pode-se provar que a soma de variveis aleatrias exponenciais com mdia 1/ tem
uma distribuio Gama. fcil ver que se = 1, tem-se uma distribuio exponencial com
parmetro , e se = n/2 e = 1/2 tem-se uma distribuio Qui-quadrado com n graus
de liberdade.
8.8 Qui-quadrado
X tem uma distribuio Qui-quadrado com parmetro n, onde n nmero natural, se a
funo densidade de X igual a
f
X
(x) =
x
n/21
e
x/2
2
n/2
(n/2)
U(x),
onde (p) =
_

0
x
p1
e
x
dx para p > 0 a funo gama. n conhecido como nmero de
graus de liberdade da distribuio Qui-quadrado.
A Figura 8.8 mostra a funo densidade Qui-quadrado para 1, 2, 3, 4, e 5 graus de
liberdade.
Pode-se provar que se X
1
, X
2
, X
3
, . . . , X
n
so n variveis aleatrias independentes com
densidade normal padro, ento X = X
2
1
+X
2
2
+ +X
2
n
tem densidade Qui-quadrado com
n graus de liberdade. A distribuio Qui-quadrado tem inmeras aplicaes em inferncia
estatstica. Por exemplo, na estimao de varincias. Pode-se provar que E(X) = n e
V (X) = 2n.
Campos & Rgo
8.9. T-STUDENT 165
8.9 t-Student
X tem uma distribuio t-Student com parmetro n, onde n nmero natural, se a funo
densidade de X igual a
f
X
(x) =
[(n + 1)/2]
[n/2]

n
(1 +
x
2
n
)
(n+1)
2
,
onde n conhecido como nmero de graus de liberdade da distribuio t-Student.
A Figura 8.9 mostra a funo densidade t-Student para 1, 2, 5, 10 e innitos graus de
liberdade.
Note que se n = 1, tem-se que a distribuio t-Student igual a distribuio Cauchy(0,1).
Se n , a distribuio t-Student converge para a distribuio normal padro. Pode-se
provar que se Z uma distribuio normal padro independente de V que tem distribuio
Qui-quadrado com n graus de liberdade, ento X =
Z

V
n
tem uma distribuio t-Student
com n graus de liberdade. A distribuio t-Student utilizada em inferncia estatstica.
Por exemplo, pode-se utiliz-la para calcular intervalos de conana para a mdia de uma
amostra quando a varincia da populao no conhecida. Pode-se provar que se n > 1,
ento E(X) = 0, se n > 2 ento V (X) =
n
n2
.
8.10 F-Snedecor
8.11 Beta
X tem uma distribui73o Beta com par2metros e , onde > 0 e > 0 s3o nreais, se a
fun73o densidade de X 9 igual a
Campos & Rgo
8.12. CAUCHY 166
f
X
(x) =
x
1
(1 x)
1
_
1
0
u
1
(1 u)
1
du
U(x)U(1 x) =
1
B(, )
x
1
(1 x)
1
U(x)U(1 x),
onde B(, ), para > 0, > 0, 9 a fun73o beta que 9 o fator de normaliza73o que garante
que f
X
9 uma densidade.
Distribui75es Beta s3o usadas exaustivamente em EstatBayesiana, pois elas s3o uma
famde distribui75es a priori conjugadas para distribui75es binomiais e geom9tricas. A dis-
tribui73o beta pode ser utilizada para modelar eventos que tem restri73o de estar em um
intervalo nito.
8.12 Cauchy
X tem uma distribui73o Cauchy com par2metro x
0
e > 0, se a fun73o densidade de X 9
igual a
f
X
(x) =
1

2
+ (x x
0
)
2
.
A Figura 8.12 mostra a fun73o densidade Cauchy para alguns pares de par2metros.
Pode-se provar que a raz3o entre duas vari1veis aleat3rias com distribui73o Normal
padr3o independentes tem uma distribui73o Cauchy com par2metros x
0
= 0 e = 1.
Se X Cauchy(x
0
, ), ent3o X n3o 9 integr1vel, ou seja E(X) n3o est1 denida, pois:
_
0

2
+ (x x
0
)
2
dx = ,
e
_

0
x

2
+ (x x
0
)
2
dx = .
Campos & Rgo
8.13. A DISTRIBUIO NORMAL BIVARIADA 167
8.13 A Distribuio Normal Bivariada
O vetor aleatrio (X, Y ) possui distribuio normal bivariada quando tem densidade dada
por
f(x, y) =
1
2
1

2
_
1
2
exp{
1
2(1
2
)
[(
x
1

1
)
2
2(
x
1

1
)(
y
2

2
) + (
y
2

2
)
2
]},
onde
1
> 0,
2
> 0, 1 < < 1,
1
IR,
2
IR.
Se = 0, esta densidade fatora e tem-se que X e Y so independentes. Se = 0, esta
densidade no fatora e X e Y no so independentes. Alm disso, a distribuio normal
bivariada satisfaz s seguintes propriedades:
(i) As distribuies marginais de X e de Y so N(
1
,
2
1
) e N(
2
,
2
2
), respectivamente.
(ii) O parmetro igual ao coeciente de correlao entre X e Y .
(iii) As distribuies condicionais de X dado Y = y e de Y dado X = x so, respectiva-
mente,
N(
1
+

2
(y
2
),
2
1
(1
2
))
e
N(
2
+

1
(y
1
),
2
2
(1
2
)).
A Figura 8.13 nos mostra a fun73o densidade da normal bivariada, onde =
1
=
2
= 0
e
1
=
2
= 1.
8.14 Distribuio de caudas-pesadas
8.15 Exerccios
1. Uma varivel aleatria contnua X uniformemente distribuda no intervalo (, ).
Encontre a distribuio da varivel Y = X.
2. Se o nmero de sinais que, independentemente, chegam em um detector D no perodo
de 10 segundos segue um processo de Poisson com mdia 20, qual a probabilidade de
que chegue pelo menos um sinal em um perodo de 5 segundos?
3. Dois satlites idnticos so lanados simultaneamente ao espao. A vida til dos seus
painis solares pode ser modelada por uma distribuio exponencial de parmetro 1
ano, isto , as densidades so dadas por e
t
. O satlite A monitorado durante os
primeiros 2 anos e funciona perfeitamente; ele s tornar a ser vericado em algum
momento aps 5 anos de seu lanamento. (a) Qual a probabilidade de que ainda esteja
funcionando nesse dia? O satlite B s vericado em algum momento depois de
completar 3 anos em rbita. (b) Qual a probabilidade de que ainda esteja funcionando
nessa data? Compare essas probabilidades. (proposto por Thanius George R. Pinho)
Campos & Rgo
8.15. EXERCCIOS 168
4. Suponha que a durao de vida, T, de um dispositivo eletrnico, medida em horas,
seja uma varivel aleatria contnua com funo densidade de probabilidade
f(t) = 0.01e
0.01t
, t > 0.
10 desses dispositivos so instalados independentemente em um sistema.
(a) Qual a probabilidade de que um deles escolhido aleatoriamente dure menos de
50 horas?
(b) Qual a probabilidade de que ao menos um dos 10 dispositivos dure menos de 50
horas?
5. Nas observaes feitas por Rutherford e Geiger, uma substncia radioativa emitia uma
mdia de 3.87 partculas durante 7.5 segundos.
(a) Qual a probabilidade de que a substncia emita pelo menos uma partcula por
segundo?
(b) Neste caso, isto , considerando o nmero de partculas emitidas por segundo,
escreva a expresso da densidade da varivel aleatria correspondente ao tempo
entre chegadas.
6. A distribuio do tempo de acesso, T, a uma base de dados normalmente distribuda
com uma mdia de 5 msec e desvio padro de 1 msec.
(a) Qual a probabilidade de que este tempo ultrapasse 8 msec?
Campos & Rgo
8.15. EXERCCIOS 169
(b) Qual a probabilidade de que este tempo seja inferior a 6 msec?
(c) Qual o tempo t tal que com uma probabilidade de 0.95, o tempo de acesso seja
menor que t?
7. O pessoal de uma rma de engenharia usa um terminal on-line para fazer seus clculos.
Sabe-se que o tempo de uso de um dado engenheiro segue uma distribuio exponencial
com mdia 20 minutos. Qual a probabilidade de que um engenheiro escolhido ao acaso
(a) passe menos de 30 minutos no terminal?
(b) ultrapasse a mdia da distribuio?
8. O tempo mdio de CPU por sesso em sistemas time-sharing tem uma distribuio
N(4.4, 11.56). As sesses so classicadas como trivial session se tomam menos que 1
segundo de CPU, editing session se tomam entre 1 e 5 segundos de CPU, e number-
crunching session em quaisquer outros casos.
(a) Calcule a probabilidade de cada tipo de sesso.
(b) Se 6 dessas sesses forem consideradas, qual a probabilidade de que um igual
nmero delas caia em cada uma das classicaes acima?
9. Uma certa companhia telefnica taxa as chamadas da seguinte forma: $0.20 para os
primeiros 3 minutos; $0.08 por minuto para qualquer tempo adicional. Suponha que
o tempo de durao de uma chamada seja uma varivel aleatria com distribuio
exponencial de parmetro 1. Dena a varivel aleatria Y como sendo o custo por
chamada. (a) Estabelea a distribuio de probabilidade de Y . (b) Calcule o custo
esperado.
10. (a) Determine a distribuio de probabilidade do intervalo de tempo entre chegadas
sucessivas, T, num processo de Poisson de parmetro t. Sugesto: {T < t}
{X
t
> 0}.
(b) Considere um sistema computacional onde o uxo de chegadas de um especifco
programa por hora, X
t
, segue um processo de Poisson com taxa mdia de 60 jobs.
Determine a probabilidade de que o intervalo de tempo entre jobs sucessivos seja
menor que 8 minutos.
11. Compare o limite superior da probabilidade P(| X E(X) | 2
_
V (X)) obtido pela
desigualdade de Tchebychev, com a probabilidade exata, em cada um dos seguintes
casos:
(a) X N(,
2
).
(b) X Poisson().
(c) X Exponencial().
Campos & Rgo
8.15. EXERCCIOS 170
12. Como ser a expresso da desigualdade de Tchebychev,
P(| X | )

2

2
quando
(a) X B(n, p)?
(b) X P()?
(c) X Exp()?
(d) X N(,
2
)?
13. Compare o limite superior da probabilidade P(| X E(X) | 2
_
V (X)), obtido pela
desigualdade de Tchebychev, com a probabilidade exata, em cada um dos seguintes
casos:
(a) X uniformemente distribuda sobre (-1,3).
(b) X tem distribuio N(,
2
).
(c) X tem distribuio de Poisson com parmetro 4.
(d) X tem distribuio exponencial com parmetro .
14. Suponha que o nmero de mensagens no buer em um sistema on-line tenha uma
distribuio normal com mdia 100 e desvio padro 10. Calcule a probabilidade de que
o nmero de mensagens
(a) no exceda 120,
(b) esteja entre 80 e 120 e
(c) exceda 120.
15. O comprimento de uma determinada conexo, medida em centmetros, tem uma dis-
tribuio normal. A proporo de conexes com comprimento abaixo de 25 cm 82%;
a proporo de conexes com comprimento acima de 20 cm 70%. Determine a pro-
poro de peas que medem mais de 23 cm, sabendo-se que foram escolhidas entre
aquelas que medem mais de 21 cm.
16. O tempo necessrio para um estudante completar uma tarefa escolar tem distribuio
normal com mdia 90 minutos e desvio padro 15 minutos.
(a) Que proporo de estudantes termina a tarefa em 2 horas ou menos?
(b) Qual o tempo necessrio para permitir que 90% dos estudantes terminem o teste?
(c) Em uma turma de 80 alunos, quantos se espera que terminem a tarefa em menos
de 1 hora e 40 minutos, dentre os que a terminaram em mais de 1 hora e 10
minutos?
Campos & Rgo
8.15. EXERCCIOS 171
17. A durao de um certo tipo de pneu, em quilmetros rodados, uma varivel aleatria
normal com durao mdia 60000km e desvio padro de 10000km. Qual a probabilidade
de que um pneu escolhido ao acaso dure
(a) mais de 75000km?
(b) entre 63000 e 70000km?
(c) O fabricante deseja xar uma garantia de quilometragem, de tal forma que, se a
durao do pneu for inferior garantia, o pneu seja trocado. De quanto deve ser
essa garantia para que a probabilidade de que o pneu seja trocado seja de 1% ?
18. Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma
distribuio exponencial com um valor mdio de 10 segundos.
(a) Encontre a varincia de T.
(b) Qual a probabilidade de que T no exceda 60 segundos?
(c) Exceda 90 segundos?
19. A durao da vida de um satlite uma varivel aleatria exponencialmente distri-
buda, com durao esperada de vida de 1.5 anos. Se trs desses satlites forem lan-
ados simultaneamente, qual ser a probabilidade de que ao menos dois deles ainda
venham a estar em rbita depois de 2 anos?
20. Quando um computador est operando, falhas ocorrem aleatoriamente. O tempo T
at o aparecimento da primeira falha tem uma distribuio exponencial com parmetro
. Quando uma falha ocorre, necessrio corrig-la dentro de um tempo t
0
, depois do
qual o computador comea a operar outra vez.
(a) Encontre a densidade e a funo de distribuio do intervalo de tempo entre su-
cessivas falhas.
(a) Encontre a probabilidade de que este intervalo de tempo seja maior do que 2t
0
.
21. Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma dis-
tribuio exponencial com um valor mdio de 10 segundos. Seja t um ponto arbitrrio
no tempo e X o tempo decorrido at a quinta chamada chegar (depois do tempo t).
Encontre o valor esperado e a varincia de X. Qual a probabilidade de que T no
exceda 60 segundos? Exceda 90 segundos?
22. Prove que a distribuio dos intervalos de tempo entre sucessivos eventos num processo
de Poisson com intensidade , uma exponencial com parmetro .
23. A distribuio de Weibull,
F(x) = 1 e
x
n
, x > 0,
onde > 0 uma constante e n um inteiro positivo frequentemente usada como a
distribuio do tempo livre de falha de um equipamento.
Campos & Rgo
8.15. EXERCCIOS 172
(a) Encontre a funo de densidade.
(b) Encontre sua mdia e varincia.
24. Se X tem distribuio normal com mdia e varincia
2
, encontre b tal que
P(b < (X )/ < b) = 0.90.
25. Seja X N(,
2
) e tal que P(X < 89) = 0.90 e a P(X < 94) = 0.95. Encontre e

2
.
26. Se X N(75, 25), encontre a probabilidade de que X seja maior do que 80 relativa
hiptese de que X seja maior do que 77.
27. Uma varivel aleatria X tem distribuio normal com mdia e varincia
2
. Pre-
cisamos aproximar a distribuio normal por uma distribuio uniforme no intervalo
(, ) com os limites e escolhidos de tal forma que o valor mdio e a varincia de
X sejam mantidos constantes.
28. O tempo de vida de lmpadas produzidas por uma certa fbrica segue uma distribuio
exponencial com vida mdia de 200 horas.
(a) Qual a probabilidade de uma lmpada escolhida ao acaso durar entre 200 e 300
horas?
(b) A fbrica deseja xar uma garantia, de tal forma que se a durao da lmpada
for menor que a garantia, ela seja trocada. Qual deve ser a garantia do fabricante
para repor apenas 5% da produo?
29. O comprimento das chamadas, T, em um orelho de praia segue uma distribuio
exponencial com mdia de 4 minutos. Os banhistas tem reclamado sobre a demora na
la, portanto a companhia telefnica resolve analisar o problema. Para tanto seleciona
uma amostra de 50 usurios e calcula as seguintes probabilidades.
(a) da mdia amostral, T, ser superior a 1 minuto;
(b) do mnimo amostral, K, ser superior a 1 minuto;
(c) do mximo amostral, M, ser inferior a 1 minuto.
Com base nos resultados obtidos, como voc agiria?
30. Uma varivel aleatria X tem uma distribuio de Simpson (obedece lei de um
tringulo issceles) no intervalo a a a.
(a) Encontre a expresso da funo densidade de probabilidade.
(b) Encontre sua mdia e varincia.
(c) Encontre a probabilidade de que a varivel aleatria assuma valores no intervalo
(a/2, a).
Campos & Rgo
8.15. EXERCCIOS 173
31. Uma varivel aleatria X tem distribuio exponencial com parmetro .
(a) Encontre a funo de distribuio acumulada e construa seu grco.
(b) Encontre a probabilidade de que a varivel assuma um valor menor que sua mdia.
32. Uma varivel aleatria X tem distribuio de Laplace,
f(x) = ae
|x|
,
onde um parmetro positivo.
(a) Encontre o fator a.
(b) Construa o grco das funes de densidade e distribuio.
(c) Calcule sua mdia e varincia.
33. A que transformao uma varivel aleatria X uniformemente distribuda no intervalo
(0, 1) precisa ser submetida para que se obtenha, a partir de X, uma varivel aleatria
Y que tenha uma distribuio exponencial?
34. Suponha que X se distribui exponencialmente com parmetro . Seja Y uma varivel
aleatria inteira denida em termos de X por Y = m se m X < m + 1, onde m
um nmero inteiro no negativo. Como se distribui Y ?
35. Nas observaes feitas por Rutherford e Geiger, uma substncia radioativa emitia uma
mdia de 3.87 partculas durante 7.5 segundos.
(a) Qual a probabilidade de que a substncia emita pelo menos uma partcula por
segundo?
(b) Neste caso, isto , considerando o nmero de partculas por segundo, escreva
a expresso da densidade da varivel aleatria correspondente ao tempo entre
chegadas.
Campos & Rgo
Captulo 9
Teoremas Limite. Resultados relativos a
Distribuies
9.1 Introduo
Quando um problema do mundo fco deve ser resolvido num contexto de probabilidade,
torna-se imprescindvel conhecer a lei de probabilidade que rege o fenmeno que gerou o
problema. Se o fenmeno pode ser enquadrado em alguma das situaes abaio descritas,
fcil encontrar a lei de probabilidade que o rege.
(i) Seja X uma varivel aleatria com densidade f
X
(x), ou distribuio F
X
(x), Ento,
fcil encontrar a lei de probabilidade de Y = H(X).
(ii) Supondo que se tem o vetor aleatrio (X, Y ), com as leis de probabilidade de X e Y
conhecidas. Tambm fcil encontrar as distribuies de probabilidade de X + Y ,
XY , XY e X/Y , tanto considerando independncia quanto depen dncia. Teori-
camente, se se tem (X
1
, . . . , X
n
) poderia (mas no !) ser fcil encontrar a distribuio
de (. . . ((X
1
+ X
2
) + X
3
) + + X
n
).
(iii) Se o vetor (X
1
, . . . , X
n
) uniformemente distribudo numa regio R
n
de IR
n
, encontrar
a distribuiao de (X
1
, . . . , X
n
) envolve apenas um clculo de volume (em IR
n
), cando
as diculdades tcnicas por conta do clculo abstrato e no de probabilidade.
(iv) Existem resultados, alguns aqui descritos na seo Transformao de Variveis Ale-
atrias, que podem ser obtidos via o uso da funo geratriz de momentos ou funo
caractarstica.
Entretanto, se o problema a ser resolvido estrapola as situaes anteriormente descritas,
a soluo o uso de aproximaes, as quais tm de ter um suporte terico. Assim, os
resultados vistos neste captulo, portanto, tm como objetivo maior mostrar qual o suporte
para realizar aproximaes e quais as aproximaes mais usadas no mundo real.
Um lembrete: o clculo de limites na matemtica tem como resultado o limite, quando
este existe. No mundo probabilstico alm da sintaxe, o clculo efetivo de limite, tem uma se-
mntica especca, isto , o experimento aleatrio ou foi realizado um nmero muito grande
174
9.2. LEI DE GRANDES NMEROS 175
de vezes, Mas, o que grande? Esta resposta um desao na modelagem probabilstica do
mundo fsico,
Neste captulo ser dada uma introduo a teoremas limite, teoremas relacionados com
aproximaes e resultados (ou teoremas) relativos a transformaes de variveis aleatrias.
As demonstraes so omitidas uma vez que a maioria delas foge ao escopo do livro, entre-
tanto, referncias de onde encontr-las sero fornecidas.
Por teoremas limite entende-se:
(i) Qual a distribuio da soma de n, onde esse n grande, variveis aleatrias indepen-
dentes e igualmente distribudas? E se as variveis aleatrias no forem igualmente
distribudas?
(ii) Qual a relao entre a esperana matemtica de uma varivel aleatria e a mdia amos-
tral, para uma amostra grande retirada independentemente dessa varivel aleatria?
(iii) Foi visto no Captulo 1 que a probabilidade do limite o limite da probabilidade.
Ser verdade que, dada uma seqncia de varivies aleatrias, onde cada uma tenha
esperana e o limite da seqncia tambm tenha esperana, que o limite da esperana
a esperana do limite?
(iv) Qual a relao entre a probabilidade de um evento e sua freqncia relativa ?
Os teoremas limite em probabilidade podem ser classicados como:
(i) Lei de Grandes Nmeros, os quais analisam a estabilidade da mdia para um grande
nmero de observaes, e os
(ii) Teoremas Centrais de Limite, que tratam de distribuies de probabilidade.
Estes teoremas fundamentam-se nos modos de convergncia e na funo caracterstica,
que so abordados na seo Aprendendo um pouco mais.
9.2 Lei de Grandes Nmeros
(i) Lei Fraca dos Grandes Nmeros de Jakob Bernoulli (1713)
Sejam E um experimento aleatrio, A um evento associado a E, n repeties inde-
pendentes de E, n
A
o nmero de ocorrncias de A nas repeties independentes de E,
f
A
=
n
A
n
e P(A) = p. Ento
f
A
P
p,
isto , f
A
converge para p em probabilidade.
Prova: E(f
A
) = p, V (f
A
) =
p(1p)
n
porque n
A
B(n, p). Usando a desigualdade de
Tchebychev,
P(| f
A
p |< ) 1
p(1 p)
n
2

lim
n
P(| f
A
p |< ) = 1. (9.1)
Campos & Rgo
9.2. LEI DE GRANDES NMEROS 176
O resultado em 9.1 mostra qua a frequncia de A quando n grande pode ser uma
aproximao para p. Adicionalmente, o modo de convergncia envolvido fraca, pois
convergncia em probabilidade. Este teorema limite foi o primeiro da probabilidade
e foi publicado em 1715.
Exemplo 9.2.1: O problema do administrador de uma rede estimar a verdadeira
proporo de usurios de uma dada aplicao usando uma amostra aleatria de tama-
nho n. Admitindo que a populao de usurios sucientemente grande para se usar
um resultado assinttico, determine n para que o administrador possa garantir, com
pelo menos 95_entre a estimativa encontrada, p

, e a probabilidade terica 1/3, seja


inferior a 3_
(ii) Lei Forte dos Grandes Nmeros de Borel (1909)
Sejam X
1
, X
2
, . . . , X
n
, . . . e X variveis aleatrias independentes e identicamente dis-
tribudas tais que P(X
n
= 1) = p, P(X
n
= 0) = 1 p e S
n
= X
1
+ + X
n
. Ento,
Sn
n
converge em quase toda parte (qtp) para p, ou
S
n
n
qtp
p.
Exemplo 9.2.2: Nmeros Normais
Segundo [CHUNG], o teorema de Borel acima foi o primeiro caso de lei forte de grandes
nmeros e pode ser formulado em termos dos chamados nmeros normais, como a
seguir.
Seja x [0, 1], escrito na expanso decimal,
x = 0.d
1
d
2
. . . .
Exceto por um conjunto contvel de terminaes decimais [KM*!] esta representao
nica. Seja 0 k 9 e v
n
k
como sendo o nmero de dgitos entre os n primeiros
dgitos de v que so iguais a k. Portanto,
v
n
k
(x)
n
a frequncia relativa do dgito k, nas
n primeiras posies de x. Se existir
k
(x) tal que

k
(x) = lim
n
v
n
k
(x)
n
ento
k
(x) pode ser chamada a frequncia relativa de k em x.
x chamado simplemente normal na escala 10 se e s se, existe
k
(x) e

k
(x) =
1
10
, 0 k 9.
Nestes termos, o teorema de Borel : exceto por um conjunto de Borel de medida nula,
todo nmero em [0,1] simplesmente normal.
Campos & Rgo
9.3. TEOREMAS CENTRAIS DE LIMITE 177
Resultados para a base 2 podem ser encontrados em [james].
Fazendo uma analogia com nmeros de ponto utuante e gerador de nmeros aleatrios
em computadores, sabe-se que no intervalo [0,1] onde existem mais nmeros de ponto-
utuante (veja apndice sobre o assunto) e que geradores de nmeros aleatrios geram
nmeros aleatrios entre 0 e 1. Portanto, uma aplicao prtica do teorema de Borel
pode ser checar se o gerador de n meros aleatrios de uma determinada mquina
realmente aleatrio, isto , no limite, a frequncia de cada dgito deveria ser
1
2
, uma
vez que computadores trabalham internamente em binrio,
9.3 Teoremas Centrais de Limite
(i) Teorema Central do Limite de DeMoivre (1733)- Laplace (1812)
Se X B(n, p) e Z
n
=
Xnp

npq
, ento Z
n
D
N(0, 1).
Isto ,
lim
n
P(Z
n
z) = lim
n
F
n
(z) = F
N(0,1)
(z),
o que signica que Z
n
converge em distribuio (D) para uma N(0, 1).
Exemplo 9.3.1:
(ii) Teorema Central do Limite - TCL
Sejam X
1
, X
2
, . . . , X
n
, . . . , independentes tais que, para todo i = 1, 2, . . . ,, E(X
i
) =
i
e V (X
i
) =
2
i
. Seja S
n
= X
1
+ + X
n
. Ento,
Z
n
=
S
n

i
_

2
i
N(0, 1).
Isto ,
lim
n
P(Z
n
z) = lim
n
F
n
(z) = F
N(0,1)
(z),
ou Z
n
converge em distribuio para uma N(0, 1),
Z
n
D
N(0, 1).
O teorema de DeMoivre-Laplace mostra que probabilidades envolvendo binomiais po-
dem ser calculadas por meio de aproximao pela N(0, 1). Note que a convergncia
deste ltimo resultado tambm convergncia em distribuio. O TCL fornece um
mtodo efetivo para se calcular probabilidades quando se tem somas de variveis ale-
atrias independentes. Isto signica que se um fenmeno do mundo real puder ser
modelado por uma soma (S
n
) de n fatores independentes, mesmo no sendo possvel
encontrar uma frmula para a distribuio de S
n
, calcula-se qualquer probabilidade
envolvendo S
n
pela aproximao com a N(0, 1).
Exemplo 9.3.2:
Campos & Rgo
9.4. TRANSFORMAES DE VARIVEIS ALEATRIAS 178
9.4 Transformaes de Variveis Aleatrias
Nesta seo sero vistos resultados relativos a aproximaes de variveis aleatrias por outras,
ou de transformaes de variveis aleatrias.
(i)
lim
n,p0,=np
B(n, p) = Poisson( = np).
Exemplo 9.4.1:
(ii) Se X se distribui como uma Hipergeomtrica de parmetros N, n e r , se p =
r
N
, para
N grande,
P(X = k) B(n, p).
Exemplo 9.4.2:
(iii) Se X N(,
2
) e Y = aX + b, onde a e b so nmeros reais, ento
Y N(a + b, a
2

2
).
Exemplo 9.4.3:
(iv) Se X N(,
2
) e Z =
X

ento
Z N(0, 1).
Exemplo 9.4.4:
(v) Sejam X
1
, X
2
, . . . , X
n
independentes tais que X
i
N(
i
,
2
i
), para i = 1, , n. Seja
X = X
1
+ X
2
+ + X
n
. Ento,
X N(
n

i
,
n

2
i
).
Exemplo 9.4.5:
(vi) Sejam X
1
, X
2
, . . . , X
n
variveis aleatrias independentes tais que X
i
Poisson(
i
),
para i = 1, , n. Seja X = X
1
+ X
2
+ + X
n
. Ento,
X Poisson(
n

i
).
Exemplo 9.4.6:
Campos & Rgo
9.5. APRENDENDO UM POUCO MAIS 179
(vii) Se X
i
B(n
i
, p), para i = 1, , n e X = X
1
+ X
2
+ + X
n
. Ento,
X B(
n

n
i
, p).
Exemplo 9.4.7:
(viii) Sejam X
1
, X
2
, . . . , X
n
independentes tais que X
i
N(
i
,
2
i
), para i = 1, , n e seja
X =
X
1
+X
2
++Xn
n
. Ento,
X N(
n

i
,

2
i
)
n
.
Exemplo 9.4.8:
(ix) SejamX
1
, X
2
, . . . , X
n
variveis aleatrias independentes tais que X
i
Exponencial(),
para i = 1, , n e seja G = X
1
+ X
2
+ + X
n
. Ento,
G Gama(, n).
Exemplo 9.4.9:
9.5 Aprendendo um pouco mais
Nesta seo sero vistas as denies dos modos de convergncia e da funo caracterstica
e duas leis de grandes nmeros que ilustram convergncia em probabilidade e em quase toda
parte.
9.5.1 Modos de Convergncia
(i) Convergncia em quase toda parte, ou quase certa ou com probabilidade 1.
Sejam X
1
, X
2
, . . . , X
n
, . . . e X variveis aleatrias em (, A, P). X
n
converge para X
em quase toda parte,
X
n
qtp
X
se
P({ : lim
n
X
n
() = X()}) = 1.
Este resultado signica que o conjunto dos onde X
n
X tem probabilidade zero.
Este o signicado de converg ncia em quase toda parte: convergncia fora de um
conjunto de probabilidade (medida) nula. Adicionalmente, convergncia em quase
toda parte convergncia pontual fora de um conjunto de medida nula.
Campos & Rgo
9.5. APRENDENDO UM POUCO MAIS 180
(ii) Convergncia em probabilidade
Sejam X
1
, X
2
, . . . , X
n
, . . . e X variveis aleatrias em (, A, P). X
n
converge para X
em probabilidade,
X
n
P
X
se, > 0,
lim
n
P({ :| X
n
() X() |> ) = 0.
A semntica da convergncia em probabilidade : quando n grande, isto , quando
o experimento realizado um nmero muito grande de vezes, xado , os valores de
X
n
() e X() so probabilisticamente os mesmos.
Exemplo 9.5.1:
(iii) Convergncia em distribuio
Sejam as variveis aleatrias X
1
, X
2
, . . . , X
n
, . . . e X no necessariamente no mesmo
espao de probabilidade (, A, P). X
n
converge para X em distribuio,
X
n
D
X
se, para todo x ponto de continuidade de F
X
(),
lim
n
F
Xn
= F
X
.
Alm desses, existem outros modos de convergncia (por exemplo, convergncia em mdia
de ordem p, 0 < p < +), entretanto, os aqui citados so sucientes para o entendimento
de qual modo de convergncia foi usado neste captulo.
Convergncia em quase toda parte denominada de convergncia forte e em probabilidade
de fraca. O mais fraco modo de convergncia em distribuio. Pode-se mostrar que:
qtp P D.
9.5.2 Funo Caracterstica
Seja X uma varivel aleatria. A funo caracterstica de X, ,
: IR I C

X
(t) = E(e
itX
).
Portanto,
X
toma valores complexos. Na verdade,
X
a esperana matemtica da
funo da varivel aleatria X, e
itX
.
A funo caractarstica tem vrias propriedades, entre outras, ele determina a distribuio
acumulada de X, F
X
, e determinada por ela. Na verdade, esta propriedade um teorema
Campos & Rgo
9.6. EXERCCIOS 181
denominado teorema da unicidade e sua tese que se
X
1
(t) =
X
2
(t), para todo t, ento
F
X
1
(x) = F
X
2
(x), para todo x.
A verso real da funo caractarstica funo geratriz de momentos ou funo de mo-
mentos, M
X
,
M
X
: IR IR
M
X
(t) = E(e
tX
).
O teorema da unicidade tambm vlido se
X
(t) substituda por M
X
(t).
Exemplo 9.5.2:
9.5.3 Lei Fraca dos Grandes Nmeros de Khintchine (1929)
Sejam X
1
, X
2
, . . . , X
n
, . . . e X variveis aleatrias independentes e identicamente distribudas
em (, A, P) tais que E(X
i
) = < , i e S
1
, S
2
, . . . , S
n
= X
1
+ + X
n
, . . . as somas
parciais. Ento,
S
n
n
P
.
9.5.4 Lei Forte dos Grandes Nmeros de Kolmogorov (1933)
Sejam X
1
, X
2
, . . . , X
n
, . . . , e X variveis aleatrias independentes e identicamente distribu-
das tais que E(X
i
) < , i. Seja S
n
= X
1
+ + X
n
. Ento,
S
n
E(S
n
)
n
qtp
0.
9.6 Exerccios
1. Determinados programas que chegam a um sistema de computao requerem um tempo
de CPU que pode ser modelado por uma distribuio exponencial com parmetro
1/140 milisegundos. Por razes operacionais, a disciplina da CPU tal que, se um
programa no for processado dentro de 100 milisegundos, sua execuo interrompida
e o programa volta para o nal da la de acesso CPU.
(a) Encontre a probabilidade de que um desses programas volte para o nal da la.
(b) Suponha que um analista est interessado no tempo total, T, requerido CPU
por 40 desses programas. Qual a probabilidade de que T ultrapasse 6000 mili-
segundos?
2. Adicione 100 nmeros reais, cada um dos quais arredondado para o inteiro mais
prximo. Assuma que cada erro de arredondamento uma varivel aleatria unifor-
memente distribuda entre -0.5 e 0.5, e que estes erros sejam independentes.
(a) Encontre, aproximadamente, a probabilidade de que o erro na soma esteja entre
-3 e 3.
Campos & Rgo
9.6. EXERCCIOS 182
(b) Encontre a quantidade x tal que, com aproximadamente 99% de probabilidade,
em valor absoluto o erro na soma seja menor do que x.
3. Sejam l
1
, l
2
, , l
n
, lmpadas quaisquer instaladas de tal forma que l
2
comea a
funcionar quando l
1
deixa de funcionar, l
3
comea a funcionar quando l
2
deixa de
funcionar, e assim por diante. Assume-se que cada lmpada tem um tempo mdio de
vida de 2 mses com um desvio padro de 0.25 ms.
(a) Encontre, aproximadamente, a probabilidade de que 40 lmpadas durem pelo me-
nos 7 anos.
(b) Quantas lmpadas, n, devem ser instaladas de formas que, com uma probabilidade
de 0.95 as n lmpadas durem pelo menos 5 anos?
4. Um avio de turismo de 4 lugares pode levar uma carga til de 350kg. Carga til
= peso dos 4 passageiros + o peso das respectivas bagagens. Sabe-se que o peso de
qualquer dos passageiros segue uma distribuio normal com mdia 70kg e varincia
400kg
2
, e de qualquer respectiva bagagem, tambm normal com mdia 12kg e varincia
25kg
2
.
(a) Qual a probabilidade de haver sobrecarga se o piloto, irresponsavelmente, no
pesar os 4 passageiros e as respectivas bagagens?
(b) Qual a probabilidade de que o piloto tenha de descartar pelo menos 50kg de
combustvel para evitar sobrecarga?
5. 48 medies so registradas com vrias casas decimais. Cada um desses 48 nme-
ros arredondado para o inteiro mais prximo. A soma dos 48 nmeros originais
aproximada pela soma destes inteiros. Assumindo que os erros de arredondamento
so estocsticamente independentes e tm distribuio uniforme no intervalo (
1
2
, +
1
2
),
compute um valor aproximado para a probabilidade de que o erro seja menor que 2
unidades. Realize os clculos com quatro casas decimais.
6. A espessura de trilhas fotorresistivas (pastilhas) na fabricao de semicondutores tem
mdia e varincia, respectivamente, 10 micrmetros e 2 micrmetros. Considere nor-
malidade. Tambm considere que as espessuras de diferentes pastilhas sejam inde-
pendentes (realize todos os cculos com duas decimais e o arredondamento usual; as
respostas envolvendo a tabela da normal devem conter 4 casas decimais).
(a) Determine a probabilidade de a espessura mdia de 10 pastilhas ser maior do que
11 ou menor do que 9 micrmetros. )
(b) Qual deve ser o tamanho da amostra, n, tal que, com probabilidade 0.01, a espes-
sura mdia seja maior do que 10 micrmetros?
7. Em um extenso programa de computador, o programador decide manter J algarismos
signicativos aps o ponto decimal, arredondando o resultado de qualquer operao
aritmtica para este nmero de algarismos. Admita que haja um total de 10
6
operaes
Campos & Rgo
9.6. EXERCCIOS 183
elementares envolvendo arredondamentos, que os erros de arredondamento sejam inde-
pendentes e uniformemente distribudos no intervalo [0.510
J
, 0.510
J
]. Calcule
a probabilidade de que o erro de arredondamento seja menor do que 500 10
J
.
8. O peso de um equipamento eletrnico se distribui como uma normal com mdia 10g e
desvio padro 0.5g. Este equipamento embalado em caixas contendo 120 unidades.
O peso da caixa 150g. Qual a probabilidade de que uma caixa cheia pese mais de
1360g?
9. Adicione 100 nmeros reais, cada um dos quais arredondado para o inteiro mais
prximo. Assuma que cada erro de arredondamento uma varivel aleatria unifor-
memente distribuda entre -0.5 e 0.5, e que estes erros sejam independentes.
(a) Encontre, aproximadamente, a probabilidade de que o erro na soma esteja entre
-3 e 3.
(b) Encontre a quantidade x tal que, com aproximadamente 99% de probabilidade, a
magnitude do erro na soma seja menor do que x.
10. Sejam 27 voltagens independentes V
1
, , V
27
recebidas por um somador V =

27
i=1
V
i
.
Suponha que
V
i
U(0, 10), i = 1, , 27.
(a) Qual a probabilidade de que a voltagem na entrada do somador exceda 148.5
volts?
(b) Sabe-se que a capacidade mxima desse somador 200 volts. Calcule o nmero
mximo, n, de voltagens que o mesmo pode receber de modo que sua capacidade
no seja ultrapassada em pelo menos metade das vezes.
11. Supondo que a distribuio de probabilidade da carga til de cada passageiro, seu peso
mais sua bagagem, uma Normal de mdia 82kg e varincia 49kg
2
e que um avio de
16 lugares pode levar uma carga til total de 1360kg, calcule a probabilidade de que o
piloto tenha que tirar pelo menos 25kg de gasolina para evitar sobrecarga.
12. Um analista tem de entrevistar 20 programadores. Ele sabe que o tempo gasto em uma
entrevista, T, segue uma lei normal com mdia 10 minutos e desvio padro 3 minutos.
(a) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas?
(b) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas, se
parou durante 15 minutos para um cafezinho?
(c) Ele comea as entrevistas s 9:00 horas e decide parar para um cafezinho no
tempo t, onde t tal que, com 99% de certeza ele ter entrevistado 50% dos
programadores. Quanto t, isto , quando ele parar?
13. Um produto pesa em mdia 8g com um desvio padro de 5g. embalado em caixa de
144 unidades que pesam em mdia 200g com desvio padro 10g. Calcular a probabili-
dade de que uma caixa cheia pese mais do que 1400g, admitindo distribuies normais
dos pesos.
Campos & Rgo
9.6. EXERCCIOS 184
14. A quantidade de tempo que um consumidor gasta esperando no balco de check-in
de um aeroporto uma varivel aleatria com mdia de 8.2 minutos e desvio-padro
de 1.5 minuto. Suponha que uma amostra aleatria de 49 consumidores seja obser-
vada. Encontre a probabilidade de que o tempo mdio de espera na la para esses
consumidores esteja entre 5 e 10 minutos.
15. A vida efetiva de um componente usado em um motor de uma turbina de um avio a
jato uma varivel aleatria com mdia 5000 horas e desvio-padro 40 horas. Suponha
normalidade e independncia onde necessrio. O fabricante do motor introduz uma
melhoria no processo de fabricao desse componente que aumente a vida mdia para
5050 horas e diminui o desvio padro para 30 horas. Uma amostra aleatria de 16
componentes selecionada do processo antigo e outra de 25 elementos selecionada
do processo novo. Qual a probabilidade de que a diferena entre as duas mdias
amostrais seja no mnimo de 25 horas?
16. Um sinal, S, recebido em um detector, D, medido em microvolts, em determinado
instante t, pode ser modelado por uma N(200, 256). Suponha que 20 detectores desse
tipo sejam instalados de forma que se D
i
falha, D
i+1
entra em operao, i = 1, , 19.
Sabe-se que D
i
, i = 1, , 20 se distribuem como uma exponencial de mdia 10 horas.
Seja T o tempo total da operao completa. Qual a probabilidade de que T ultrapasse
230 horas?
17. A capacidade mxima de um elevador 2000kg. Supondo que o peso de um passageiro
tem distribuio N(70kg, 100kg
2
), use a mdia amostral para calcular:
(a) a probabilidade de 30 passageiros pesarem alm do limite;
(b) o nmero mximo n de passageiros, de modo que a capacidade no seja ultrapas-
sada em pelo menos metade das vezes.
18. Amostras independentes de tamanhos 10 e 15 so tiradas de uma varivel aleatria
normalmente distribuda, com esperana 20 e varincia 3. Qual a probabilidade de
que as mdias diram, em valor absoluto, em mais de 0.3?
19. Dadas duas amostras (X
1
, , X
n
), (Y
1
, , Y
n
) ambas provenientes de uma mesma
populao N(, 1), qual a distribuio de:
(a) Mdias amostrais, X e Y .
(b) Diferena de mdias X Y .
(c) Soma de mdias X + Y .
(d) Mdia das mdias (X + Y )/2.
20. Um corredor procura controlar seus passos em uma corrida de 100 metros. Seus passos
distribuem-se normalmente com mdia 0.97 metros e desvio padro 0.1 metro. De-
termine a probabilidade de que 100 passos diram de 100 metros por no mais de 5
metros.
Campos & Rgo
9.6. EXERCCIOS 185
21. Arredondam-se 20 nmeros para o inteiro mais prximo e somam-se os nmeros resul-
tantes. Suponha que os erros individuais de arredondamentos so independentes e se
distribuem uniformemente em (1/2, 1/2). Determine a probabilidade de que a soma
obtida dira da soma dos vinte nmeros originais por mais do que 3.
22. Fregueses chegam em certo supermercado segundo um processo de Poisson com inten-
sidade mdia de dez por minuto. Seja T
1
, T
2
, os tempos entre chegadas de fregueses,
de modo que T
1
+ + T
n
o tempo de chegada do n-simo fregus.
(a) Utilizando o Teorema Central do Limite, ache um nmero entre 0 e 1 que seja
aproximadamente igual probabilidade do milsimo fregus chegar depois de 100
minutos.
(b) Como voc calcularia o valor exato da probabilidade no item (a)? (No se aceita
uma integral no espao de dimenso 1000).
23. Sejam X
1
, X
2
, , X
k
variveis aleatrias independentes tais que X
i
B(n
i
, p), i =
1, , k, 0 < p < 1, p xo. Qual a distribuio de probabilidade de S
n
=

n
k=1
X
k
?
24. Usando a desigualdade de Tchebychev estime uma cota superior para a probabilidade
de que uma varivel aleatria tendo mdia e desvio padro se desvie de por
menos que 3.
25. Seja uma seqncia de variveis aleatrias X
1
, X
2
, , X
n
uniformemente distribudas
no interval (0,1), (0,2), etc. O que acontece com sua mdia aritmtica quando n cresce?
26. Variveis aleatrias X
1
, X
2
, , X
n
so uniformemente distribudas, respectivamente,
nos intervalos (-1,1), (-2,2), etc. Verique se a mdia aritmtica das variveis aleatrias
converge em probabilidade a zero quando n cresce.
27. Suponha que 30 dispositivos eletrnicos D
1
, D
2
, , D
30
estejam empregados da se-
guinte maneira: to logo D
1
falhe, D
2
entra em operao; quando D
2
falha, D
3
entrar
em operao, etc. Suponha que a durao at falhar D
i
seja uma varivel aleatria
exponencialmente distribuda com parmetro = 0.1hora
1
. Seja T o tempo total da
operao dos 30 dispositivos. Qual a probabilidade de que T ultrapasse 350 horas?
28. Um computador, ao adicionar nmeros arredonda cada nmero para o inteiro mais
prximo. Admita-se que todos os erros de arredondamento sejam independentes e
uniformemente distribudos sobre (-0.5,0.5).
(a) Se 1500 nmeros forem adicionados, qual a probabilidade de que a magnitude
do erro total ultrapasse 15?
(b) Quantos nmeros podero ser adicionados juntos de modo que a magnitude do
erro total seja menor do que 10, com probabilidade 0.90?
29. Suponha que X
i
, i = 1, 2, , 50 sejam variveis aleatrias independentes, cada uma
com distribuio de Poisson de parmetro = 0.03. Faa S = X
1
+ + X
50
.
Campos & Rgo
9.6. EXERCCIOS 186
(a) Empregando o Teorema Central do Limite, calcule P(S 3).
(b) Compare a resposta do item anterior com o valor exato dessa probabilidade.
30. A distribuio dos comprimentos dos elos da corrente de uma bicicleta tem distribui-
o normal com mdia 2cm e varincia 0.01cm
2
. Para que uma corrente se ajuste
bicicleta, deve ter comprimento total entre 58 e 61cm. Qual a probabilidade de que
uma corrente com 30 elos no se ajuste bicicleta? E com 29 elos?
Campos & Rgo
Captulo 10
Introduo aos Processos Estocsticos
10.1 Introduo
Quando tentamos modelar estocasticamente qualquer fenmeno fsico, somos forados a en-
frentar o fato que o mundo real cheio de dependncias. Por exemplo, compras realizadas na
prxima semana em um supermercado podem depender na satisfao das compras realizadas
at o presente momento; o estoque armazenado amanh depender no nvel de estoque de
hoje bem como na demanda; o nmero de clientes esperando numa la em uma certa hora
depene do nmero de clientes que estavam na la na hora anterior.
Um grande problema que apesar dos modelos serem mais apropriados quando inclumos
as dependncias, estas por suas vez tornam os clculos das probabilidades muito complicados
ou impossveis. Ou seja, quanto mais independncia assumimos no modelo probabilstico,
aumentamos a chance de poder realizar os clculos explicitamente, contudo tornamos mais
questionvel a qualidade do modelo.
Quando construmos um modelo estocstico, o desao utilizarmos dependncias que
permitam o modelo ser o mais el possvel a realidade, mas que tambm sejam matematica-
mente tratveis. Um processo de Markov freqentemente atende a estas duas demandas. Um
processo de Markov tem a propriedade que, dada toda histria at o presente, a estrutura
probabilstica no depende de toda histria mas apenas do presente. Dependncias so por-
tanto tratveis pois elas dependem apenas do estado presente; o futuro condicionalmente
independente do passado dado o presente. Cadeias de Markov so processos de Markov com
um conjunto de ndices discreto e espaos de estados enumerveis ou nitos.
10.1.1 Denio e Exemplos
Considere um processo estocstico {X
n
, n = 0, 1, 2, . . .} que pode assumir um nmero nito
ou enumervel de valores. Geralmente, denota-se o conjunto de estados pelo conjunto de
inteiros no-negativos {0, 1, 2, . . .}. Se X
n
= i, ento o processo dito estar no estado i no
instante n. Suponha que sempre que o processo est no estado i existe uma probabilidade
xa p
ij
que ele estar no estado j no prximo perodo. Ou seja suponha que,
P(X
n+1
= j|X
n
= i, X
n1
= i
n1
, . . . , X
0
= i
0
) = p
ij
,
187
10.1. INTRODUO 188
para todos os estados i
0
, . . . , i
n1
, i, j e todo n 0. Este processo estocstico conhecido
como Cadeia de Markov. p
ij
s so chamadas de probabilidades de transio e satisfazem
p
ij
0, i, j;

j=0
p
ij
= 1, i = 0, 1, . . .
Seja P uma matriz contendo as probabilidades de transio.
Observao: Esta denio assume que as probabilidades de transio so estacion-
rias, ou seja, independentes de n. Uma cadeia de Markov com esta propriedade chamada
de homognea. Embora o processo possua probabilidades de transio estacionrias, o pro-
cesso em si no estacionrio. Ns discutiremos condies para uma cadeia de Markov ser
estacionria depois.
Exemplo 10.1.1: Passeio Aleatrio Sejam {X
n
, n 1} variveis aleatrias i.i.d. com
P[X
n
= k] = a
k
, < k < .
O passeio aleatrio denido por:
S
0
= 0, S
n
=
n

i=1
X
i
, n 1.
Ento, {S
n
} uma cadeia de Markov pois
P(S
n+1
= i
n+1
|S
0
= 0, S
1
= i
1
, . . . , S
n
= i
n
) =
= P(X
n+1
+ i
n
= i
n+1
|S
0
= 0, S
1
= i
1
, . . . , S
n
= i
n
) =
= P(X
n+1
= i
n+1
i
n
) = a
i
n+1
in
= P(S
n+1
= i
n+1
|S
n
= i
n
),
visto que X
n+1
independente de S
0
, . . . , S
n
.
Exemplo 10.1.2: Modelos de Fila Discretos Ns discutiremos dois tipos de modelos
de la discretos. Clientes chegam em um estabelecimento e esperam pelo servio que feito
por ordem de chegada. Assuma que existe um nico atendente. Seja X(t) o nmero de
clientes no sistema no instante t, ou seja, o nmero esperando ou em atendimento.
Para o primeiro tipo de modelo, ns assumimos que o atendimento se encerra nos instantes
T
0
, T
1
, . . . ento estes so os tempos em que algum cliente sai do sistema. Seja X
n
= X(T
n
+)
onde + nos faz relembrar que ns medimos o nmero de clientes no sistema imediatamente
depois de uma sada. Seja A
n+1
o nmero de chegadas durante o perodo de atendimento do
cliente que sai no instante T
n+1
. Ento, {X
n
} satisfaz a seguinte frmula recursiva
X
n+1
= (X
n
1)
+
+ A
n+1
,
pois o nmero no sistema no instante T
n+1
o nmero no instante T
n
mais o nmero de
chegadas menos o cliente que saiu quando seu atendimento foi concludo. Se as {A
n
} so
Campos & Rgo
10.1. INTRODUO 189
i.i.d. e independentes de X
0
, ento {X
n
} uma cadeia de Markov. Se P(A
1
= k) = a
k
, k 0,
ento pode-se checar que a matriz de transio de probabilidades
P =
_
_
_
_
_
_
_
a
0
a
1
a
2
. . .
a
0
a
1
a
2
. . .
0 a
0
a
1
. . .
0 0 a
0
. . .
.
.
.
.
.
.
_
_
_
_
_
_
_
Agora vamos considerar o segundo tipo de modelo de la discreto. Como antes, seja X(t)
o nmero no sistema no instante t e suponha que clientes chegam nos instantes
0
,
1
, . . .
Seja S
n+1
o nmero potencial de atendimentos concludos no intervalo [
n
,
n+1
) e seja X
n
=
X(
n
) o nmero no sistema imediatamente antes da chegada no n-simo cliente. Ento,
X
n+1
= (X
n
S
n+1
+ 1)
+
,
pois o nmero no sistema antes da (n+1)-sima chegada igual a 1 mais o nmero no sistema
antes da n-sima chegada menos o nmero que foram atendidos e saram. Se as {S
n
} so
i.i.d. e independentes de X
0
, ento {X
n
} uma cadeia de Markov. Se P(S
1
= j) = a
j
, j 0,
ento pode-se checar que a matriz de transio de probabilidades
P =
_
_
_
_
_

i=1
a
i
a
0
0 0 . . .

i=2
a
i
a
1
a
0
0 . . .

i=3
a
i
a
2
a
1
a
0
. . .
.
.
.
.
.
.
_
_
_
_
_
10.1.2 Equaes de Chapman-Kolmogorov e Classicao do Esta-
dos
Ns j denimos as probabilidades de transio de um passo. Agora ns deniremos as
probabilidades de transio de n passos, ou seja, as probabilidades de que o processo estando
no estado i estar no estado j depois de n transies, ns denotamos esta probabilidade por:
p
n
ij
= P(X
n+m
= j|X
m
= i) para n 0 e i, j 0. As equaes de Chapman-Kolmogorov
servem como um mtodo para calcular estas probabilidades de transio de n passos e so
estabelecidas observando que
p
n+m
ij
= P(X
n+m
= j|X
0
= i) =

k=0
P(X
n+m
= j, X
n
= k|X
0
= i) =
=

k=0
P(X
n+m
= j|X
n
= k, X
0
= i)P(X
n
= k|X
0
= i) =

k=0
p
m
kj
p
n
ik
.
Seja P
(n)
a matriz de probabilidades de transio de n passos, ento temos que P
(n+m)
=
P
(n)
P
(m)
, onde P
(0)
= I. Portanto,
P
(n)
= P P
(n1)
= P P P
(n2)
= . . . = P
n
Campos & Rgo
10.1. INTRODUO 190
, e P
(n)
pode ser calculada multiplicando a matriz P por ela mesma n vezes.
O estado j dito acessvel do estado i se para algum n 0, P
n
ij
> 0. Dois estados que
so acessveis um ao outro, se comunicam, e ns denotamos por i j.
Teorema 10.1.3: Comunicao relao de equivalncia, ou seja
(i) i i;
(ii) se i j, ento j i;
(iii) se i j e j k, ento i k.
Proof: (i) e (ii) so triviais da denio de comunicao. Para provar (iii), suponha que
i j e j k, ento existem m, n tal que P
m
ij
> 0 e P
n
jk
> 0. Portanto,
P
m+n
ik
=

r=0
P
m
ir
P
n
rk
P
m
ij
P
n
jk
> 0.
Similarmente, podemos provar que existe s tal que P
s
ki
> 0.
Dois estados que se comunicam esto numa mesma classe, e pelo teorema anterior quais-
quer duas classes ou so disjuntas ou idnticas. Diz-se que uma cadeia de Markov irredutvel
se todos os estados se comunicam. Um estado i tem perodo d se P
n
ii
= 0 sempre que n no
divisvel por d e d o maior inteiro com essa propriedade. Se P
n
ii
= 0 para todo n > 0, ento
o perodo de i denido como sendo innito. Um estado com perodo 1 dito aperidico.
Para quaisquer estados i e j, denimos f
ij
para ser a probabilidade que iniciando em i,
a primeira transio para j ocorre no instante n. Formalmente, f
0
ij
= 0 e
f
n
ij
= P(X
n
= j, X
k
= j, k = 1, . . . , n 1|X
0
= i).
Seja f
ij
=

n=1
f
n
ij
. Ento, f
ij
igual a probabilidade de eventualmente se fazer uma
transio para o estado j, dado que o processo se inicia no estado i. O estado j recorrente
se f
jj
= 1, e transiente no caso contrrio.
Teorema 10.1.4: Estado j recorrente se e somente se

n=1
P
n
jj
= .
Proof: Estado j recorrente se, com probabilidade 1, um processo comeando em j even-
tualmente retornar a j. Contudo, pela propriedade markoviana, segue que o processo
recomea probabilisticamente quando retorna a j. Logo, com probabilidade 1, ele retornar
mais uma vez a j. Repetindo este argumento, ns vemos que, com probabilidade 1, o nmero
de visitas a j ser innito e portanto tem esperana innita. Por outro lado, suponha que
j transiente. Ento a cada instante que o processo retorna a j existe uma probabilidade
positiva 1 f
jj
que ele nunca mais retornar; logo o nmero de visitas geomtrico com
esperana nita igual a
1
1f
jj
.
Pelo argumento acima, temos que j recorrente se e somente se
E(number of visits to j|X
0
= j) = .
Campos & Rgo
10.1. INTRODUO 191
Mas, seja I
n
= 1 se X
n
= j e I
n
= 0, caso contrrio. Segue que

n=0
I
n
o nmero de
visitas a j. Como
E(

n=0
I
n
|X
0
= j) =

n=0
E(I
n
|X
0
= j) =

n=0
P
n
jj
,
o resultado est provado.
Corolrio 10.1.5: Se i recorrente e i j, ento j recorrente.
Proof: Sejam m e n tais que P
n
ij
> 0 e P
m
ji
> 0. Como para qualquer s 0, P
m+n+s
jj

P
m
ji
P
s
ii
P
n
ij
, temos que

s
P
m+n+s
jj
P
m
ji
P
n
ij

s
P
s
ii
= ,
e o resultado segue do teorema anterior.
10.1.3 Teoremas Envolvendo Limites
Dado o ltimo teorema da seo anterior, fcil provar que se j transiente, ento

n=1
P
n
ij
<
para todo i, signicando que, iniciando em i, o nmero esperado de transies para o es-
tado j nito. Como conseqncia, segue que se j transiente P
n
ij
0 quando n .
Seja
jj
o nmero esperado de transies necessrias para o retorno ao estado j. Ou seja,

jj
=
_
se j transiente

n=1
nf
n
jj
se j recorrente.
Se estado j recorrente, ento diz-se que ele positivamente recorrente se
jj
< e
nulamente recorrente se
jj
= . Assim como recorrncia uma propriedade de classe,
recorrncia positiva e nula tambm o so, ns omitimos a prova aqui. Tambm pode-se
provar que se j um estado aperidico, ento lim
n
P
n
ij
=
1

jj
.
Denio 10.1.6: Uma distribuio de probabilidade {P
j
, j 0} dita estacionria para
a cadeia de Markov se P
j
=

i=0
P
i
P
ij
, para todo j 0.
Se a probabilidade de distribuio de X
0
, denotamos P
j
= P(X
0
= j) j 0, uma
distribuio estacionria, ento
P(X
1
= j) =

i=0
P(X
1
= j|X
0
= i)P(X
0
= i) =

i=0
P
i
P
ij
= P
j
,
e, por induo,
P(X
n
= j) =

i=0
P(X
n
= j|X
n1
= i)P(X
n1
= i) =

i=0
P
i
P
ij
= P
j
.
Campos & Rgo
10.1. INTRODUO 192
Portanto, se a distribuio de probabilidade inicial uma distribuio estacionria, en-
to X
n
tem a mesma distribuio para todo n. Na verdade, como {X
n
, n 0} uma
cadeia de Markov, segue deste fato que para todo m 0, X
n
, X
n+1
, . . . , X
n+m
tm a mesma
distribuio para todo n, ou seja {X
n
, n 0} um processo estacionrio.
O prximo teorema estabelece um importante resultado sobre distribuies estacionrias
para o caso de cadeias de Markov irredutveis e aperidicas.
Teorema 10.1.7: Uma cadeia de Markov irredutvel e aperidica pertence a uma das duas
seguintes classes:
(i) Ou os estados so todos transientes ou todos nulamente recoerrentes; neste caso, P
n
ij

0 quando n para todo i, j e no existe distribuio estacionria.
(ii) Ou ento, todos os estados so positivamente recorrentes; neste caso {
j
= 1/
jj
, j
0} uma distribuio estacionria e no existe nenhuma outra distribuio estacion-
ria.
Proof: Primeiro ns provaremos (ii). Para comear note que
M

j=0
P
n
ij

j=0
P
n
ij
= 1, M.
Fazendo n temos,

M
j=0

j
1, M, o que implica que

j=0

j
1. Agora,
P
n+1
ij
=

k=0
P
n
ik
P
kj

M

k=0
P
n
ik
P
kj
, M.
Fazendo n temos,
j


M
k=0

k
P
kj
para todo M, o que implica que
j

k=0

k
P
kj
para todo j 0. Para mostrar que na verdade ns temos igualdade, suponha
por contradio que a desigualdade estrita para algum j. Ento somando as desigualdades
obtemos

j=0

j
>

j=0

k=0

k
P
kj
=

k=0

j=0
P
kj
=

k=0

k
,
uma contradio. Portanto,

j
=

k=0

k
P
kj
, j 0.
Seja P
j
=

j
P

k=0

k
, vemos que {P
j
} uma distribuio de probabilidade estacionria,
portanto pelo menos uma distribuio estacionria existe. Agora, seja {P
j
, j 0} uma
distribuio estacionria qualquer. Ento, se {P
j
, j 0} a distribuio de X
0
, temos que
P
j
= P(X
n
= j) =

i=0
P(X
n
= j|X
0
= i)P(X
0
= i) =

i=0
P
n
ij
P
i
.
Campos & Rgo
10.2. EXERCCIOS 193
(10.1)
Logo para todo M, temos que P
j
=

M
i=0
P
n
ij
P
i
. Fazendo n e depois M tender a innito,
temos P
j

i=0

j
P
i
=
j
. Para obter a desigualdade oposta, usaremos (10.1) e o fato que
P
n
ij
1 para obter
P
j

M

i=0
P
n
ij
P
i
+

i=M+1
P
i
, M,
e fazendo n temos
P
j

M

i=0

j
P
i
+

i=M+1
P
i
, M.
Como

i=0
P
i
= 1, fazendo M , temos
P
j

i=0

j
P
i
=
j
.
Se os estados so transientes ou nulamente recorrentes e {P
j
, j 0} uma distribuio
estacionria, ento (10.1) e P
n
ij
0, o que impossvel. Logo, no caso (i) no existe
distribuio estacionria.
10.2 Exerccios
1. A r D descansa sobre o vrtice A de um tringulo ABC. A cada minuto a r salta
do vrtice em que est para um vrtice adjacente com probabilidade p (0, 1) do salto
ser no sentido horrio e 1 p do salto ser no sentido anti-horrio. Modele o problema
por uma Cadeia de Markov.
(a) Especique o espao de estados, E.
(b) Especique o espao de parmetro, T.
(c) Especique a matriz de probabilidade de transio, P.
(d) A distribuio de probabilidade inicial, p
(0)
.
(e) Verique (fcil e rapidamente) que P regular.
(f) Encontre a distribuio de probabilidade estacionria da cadeia.
(g) Considere que o tringulo equiltero e atribua um valor numrico conveniente
para p. No terceiro minuto, com que probabilidade a r D poder estar em cada
um dos vrtices do tringulo ABC? Especique claramente sua resposta.
2. Uma dada impressora tem, sistematicamente, apresentado uma das seguintes situaes:
Campos & Rgo
10.2. EXERCCIOS 194
c: est funcionando corretamente;
d: est apresentando algum tipo de defeito;
n: no est funcionando.
3. Trs crianas A, B e C esto arremessando uma bola uma para a outra. A sempre
arremessa a bola para B e B sempre arremessa a bola para C, to provvel que C
lance a bola para B quanto para A. Seja X
n
, n = 1 . . . n a nsima pessoa a arremessar
a bola.
(a) Especique o espao de estados do processo.
(b) Especique a matriz de probabilidades de transio, M.
(c) Esboe o diagrama de transio de estados.
(d) Considerando M, M
2
e M
3
, voc diria que M regular? Justique sua resposta.
(e) Determine o nico vetor xo de probabilidades. Interprete o resultado.
4. Os hbitos de estudo de um estudante so os seguintes: se estuda uma noite, tem 70%
de certeza que no estudar na noite seguinte; em contrapartida, se no estuda uma
noite, tem 60% de certeza de que no estudar tambm na noite seguinte. Com que
freqncia ele estuda numa seqncia sucientemente grande de dias?
5. Suponha que o estado social, ou nanceiro, de uma pessoa possa ser classicado como
de classe baixa, denotado por 1, de classe mdia, denotado por 2 ou de classe alta,
denotado por 3. Admite-se que a classe de um indivduo depende apenas da classe do
seu predecessor imediato. Seja a matriz de probabilidades de transio dada por
P =
_
_
0.6 0.3 0.1
0.1 0.8 0.1
0.1 0.2 0.7
_
_
e, que, em dada gerao inicial, o percentual de indivduos nas classes 1, 2 e 3 ,
respectivamente, 40%, 50% e 10%.
(a) Se o pai da classe mdia, qual a probabilidade de que seu neto venha a ser da
classe alta?
(b) Quais as percentagens de indivduos em cada classe daqui a trs geraes?
(c) Encontre a distribuio de equilbrio da cadeia e a interprete.
6. Suponha que determinado produto seja fabricado pelas companhias A e B. Presen-
temente a companhia A desfruta de 75% do mercado e a B dos 25% restante. Uma
pesquisa realizada revelou que, de uma ano para outro, 15% dos consumidores da com-
panhia A passam a consumir o produto da companhia B e 10% dos consumidores da
companhia B, passam-se para a companhia A. Sabe-se que, dada a companhia com que
o consumidor comercia atualmente, a companhia com que ele estar comerciando no
ano seguinte ser independente das companhias com as quais comerciou no passado.
Campos & Rgo
10.2. EXERCCIOS 195
(a) Especique os espaos de estados e de parmetro da cadeia.
(b) Especique a matriz de probabilidades de transio de probabilidades, P.
(c) Especique a distribuio de probabilidade inicial da cadeia.
(d) Que percentagem do mercado caber companhia B daqui a 4 anos?
(e) P regular? P tem algum estado absorvente? Justique sua resposta.
(f) Sendo possvel, justique a razo, determine a distribuio de equilbrio da cadeia
de Markov. Interprete, com o mnimo de palavras possvel, o resultado obtido.
7. Uma dada impressora tem, sistematicamente, apresentado uma das seguintes situaes:
c: est funcionando corretamente;
d: est apresentando algum tipo de defeito;
n: no est funcionando.
O pessoal do suporte decide observ-la todos os dias s 8:00. No dia inicial do co-
meo das observaes a impressora est funcionando corretamente. A experincia tem
mostrado que o funcionamento da impressora pode ser modelado por uma cadeia de
Markov com a seguinte matriz de probabilidades de transio:
_
_
0.3 0.5 0.2
0 0.2 0.8
0 0 1
_
_
(a) Esta matriz apresenta algum estado absorvente? Se sim, qual, justicando sua
resposta.
(b) Como sero as probabilidades de transio no terceiro dia de observao? Qual o
valor de p
(3)
cn
?
(c) No terceiro dia de observao, qual o estado mais provvel da impressora?
(d) Seria possvel estudar o comportamento desta impressora aps um nmero grande
de dias de observao? Justique sua resposta.
8.
9. Seja
A =
_
_
a
1
b
1
c
1
a
2
b
2
0
1 0 0
_
_
uma matriz estocstica e u = (u
1
, u
2
, u
3
) um vetor de probabilidade.
(a) Mostre que uA tambm um vetor de probabilidade.
(b) Suponha que u seja um vetor xo de probabilidade. Mostre que ku, k > 0 tambm
o .
Campos & Rgo
10.2. EXERCCIOS 196
10. O territrio de um vendedor constitudo de trs cidades, A, B e C. Ele nunca vende
na mesma cidade em dias consecutivos. Se vende na cidade A, no dia seguinte vende
na cidade B. Contudo, se vende na B ou em C, ento no dia seguinte duas vezes mais
provvel que ele venda em A do que na outre cidade.
(a) Especique o espao de estados do processo.
(b) Especique a matriz de probabilidade de transio M.
(c) Esta cadeia tem algum estado absorvente?
(d) Aps um nmero sufucientemente grande de dias, com que freqncia ele vende
em cada uma das cidades?
Campos & Rgo
Captulo 11
Anlise Exploratria de Dados
11.1 Tipos de Variveis
Quando ecessrio analisar um conjunto de dados decorrentes da realizao de um experi-
mento, ou da observao do mundo real, comum a aplicao de um conjunto de tcnicas que
servem como um indicativo de qual procedimento deve ser adotado. Estas tcnicas quando
corretamente aplicadas e interpretadas fornecem valioso suporte para a tomada de decises
quer com respeito aos dados em si, quer com respeito a qual mtodo de inferncia aplicar.
Nem todas as variveis so numricas ou quantitativas, como as que foram estudadas
nos captulos anteriores, pode-se ter uma varivel no numrica ou qualitativa como, por
exemplo, modelos distintos de sistemas operacionais, ou distintos paradigmas de liguagens
de programao, ou diferentes classes da populao com respeito ao nmero de salrios
mnimos ganhos. As variveis quantitativas podem ser discretas ou contnuas, enquanto as
qualitativas podem ser classicadas como nominais ou ordinais, dependendo se existe ou no
uma ordem natural em seus possveis resultados. Por exemplo, modelos distintos de sistemas
operacionais reportam-se a uma varivel qualitativa nominal, enquanto diferentes classes da
populao com respeito ao nmero de salrios mnimos ganhos a uma varivel qualitativa
ordinal.
Um outro possvel critrio para classicar variveis em funo da escala de medida
adotada para se analisar o resultado do experimento. As escalas de medidas podem ser:
nominais, ordinais, intervalares, e de razo.
Uma escala nominal utilizada para classicar os resultados de um experimento, por
exemplo, se dado equipamento falhou ou no durante o perodo de estudo, a marca e o
modelo do equipamento em questo.
Uma escala ordinal alm de classicar os resultados tambm pode ser utilizada para
estabelecer uma ordem entre as diferentes classes de possveis resultados, por exemplo, grau
de escolaridade de um indivduo, classe socio-econmica de um indivduo, posio que um
indivduo conclui uma certa corrida. Transformaes que preservam a ordem no alteram a
estrutura de uma classe ordinal.
Uma escala intervalar pode ser utilizada para alm de classicar e ordenar os resultados
tambm quanticar diferena entre as classes. Nesta escala necessrio estabelecer uma
origem arbitrria e uma unidade de medida. Por exemplo, a temperatura de um dado
197
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 198
equipamento em funcionamento medida em graus centgrados constitui uma medida numa
escala intervalar. Considere o caso em que tem-se trs equipamentos E1, E2, e E3, operando
em temperaturas de 40, 45 e 80 graus centgrados, respectivamente; vlido armar que a
diferena de temperatura entre E3 e E2 7 vezes maior que a diferena de temperatura entre
E2 e E1. Contudo, neste escala no faz sentido armar que E3 tem uma temperatura 2 vezes
maior que E1, pois a origem e a unidade de graus centgrados escolhidas so arbitrrias, se
a temperatura estivesse sendo medida em graus Fahrenheits no se observaria esta relao.
Uma escala de razo podem ser utilizada para alm de classicar e ordenar os resultados
tambm estabelecer quo maior um resultado que outro. A diferena com a escala intervalar
que agora existe um zero bem denido neste escala. A altura de um indivduo, o tempo
at ocorrncia de um dado evento, o nmero de ocorrncias de certo evento em um dado
intervalo de tempo so exemplos de medidas que utilizam uma escala de razo. No caso
de dois equipamentos E1 e E2 com tempo de vida til de 100h e 200h, respectivamente.
vlido armar que o tempo de vida til de E2 o dobro do tempo de vida til de E1.
11.2 Anlise preliminar de um conjunto de observaes
O que ser visto a seguir como proceder uma anlise preliminar em um conjunto de dados.
11.2.1 Representaes Grcas
Quando se procede uma anlise em um conjunto de dados resultantes de variveis quantita-
tivas ou qualitativas o que inicialmente feito um grco. Existem vrios tipos de grcos,
sendo os mais comumentes encontrados: barras, colunas, setores, pictograma, gantt, kiviat,
linhas e histograma. O tipo de grco a ser usado depende do tipo de varivel do problema,
se qualitativa ou quantitativa.
Existem vrios tipos de grcos para representar a distribuio dos dados de uma varivel
qualitativa. Os dois mais utilizados so: o grco de barras e o grco de setores ou pizza.
O grco de barras consiste em construir retngulos ou barras, uma para cada classe, em
que uma das dimenses proporcional frequncia de ocorrncia desta classe, e a outra di-
menso arbitrria porm igual para todas as barras. As barras so dispostas paralelamente
umas s outras, horizontal ou verticalmente.
O grco de setores destina-se a representar a composio, usualmente em porcentagem,
de partes de um todo. Consiste de um crculo de raio arbitrrio, representando o todo,
dividido em setores, sendo que cada setor corresponde a uma classe e tem rea proporcional
frequncia relativa de ocorrncia desta classe.
Para uma varivel quantitativa discreta tambm utiliza-se um grco de barras como no
caso de variveis quantitativas, onde agora tem-se uma barra para cada possvel valor que a
varivel pode assumir. Tambm considera-se um grco de disperso unidimensional onde
desenha-se apenas pontos no plano cartesiano da forma (x
i
, n
i
), isto , onde a abscissa do
ponto um possvel valor da varivel e a ordenada a frequncia de ocorrncia deste valor.
Uma outra alternativa de grco para varivel quantitativa que muito til no caso de
variveis contnuas o histograma.
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 199
Para a construo de um histograma, o primeiro passo denir os intervalos contguos e
disjuntos que cubram todos os resultados observados. Uma vez denidos os intervalos, um
histograma nada mais do que um grco de barras contguas. Como uma representao
grca, a priori no necessrio rigor na construo dos retngulos, entretanto se o for a base
proporcional ao comprimento do intervalo e a rea da barra proporcional frequncia
relativa de ocorrncia de intervalos neste dado intervalo. Logo, se o i-simo intervalo tem
comprimento
i
e a frequncia relativa de ocorrncia de resultados neste intervalo f
i
, ento
a altura da barra deve ser proporcional a f
i
/
i
, que chamada de densidade de frequncia
da i-sima classe. Com essa conveno a rea total do histograma proporcional a 1.
Os exemplos a seguir ilustram qual tipo de grco usar para qual tipo de varivel.
varios exemplos aqui.
11.2.2 Sumarizando Observaes
Considere a seguinte tabela que contm informaes sobre empregados de uma companhia.
No. Estado Civil Grau de Instruo No. de Filhos Salrio Idade Sexo
1 S M9dio 0 3 34 F
2 C Superior 2 5 25 M
3 C Fundamental 1 4 46 M
4 C Fundamental 3 5,5 32 M
5 S M9dio 1 7,3 23 F
6 C M9dio 2 3,5 39 M
7 S Superior 3 10 50 M
8 C M9dio 4 6 47 M
9 C M9dio 0 2 21 F
10 S M9dio 1 3,7 33 M
Uma maneira til de se descrever os resultados das variveis atravs da frequncia
(absoluta), frequncia relativa (proporo) e porcentagem. Por exemplo, considerarando a
varivel Grau de Instruo na tabela anterior anterior. A frequncia de uma dada classe
o nmero de vezes que determinada classe ocorreu nos resultados do experimento. A
frequncia relativa a proporo de vezes que dada classe ocorreu em relao ao nmero
total de indivuos que participaram do experimento. A porcentagem igual a 100 vezes a
frequncia relativa. A tabela abaixo conhecida como tabela de frequncia para a varivel
Grau de Instruo.
Grau de Instruoo Frequncia (n
i
) Frequncia Relativa (f
i
) Porcentagem 100f
i
Fundamental 2 0,2 20
M9dio 6 0,6 60
Superior 2 0,2 20
Total 10 1 100
Quando o objetivo for comparar esta varivel Grau de Instruo entre diferentes empresas,
deve-se usar ou a frequncia relativa ou a porcentagem, pois possuem o mesmo total para
qualquer empresa, enquanto o nmero total de empregados varia de empresa para empresa.
Em geral, quando uma tabela de frequncia onstruda o objetivo resumir os resultados
no que diz respeito a uma dada classe. No caso de uma varivel quantitativa, se faz necess-
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 200
rio que dividam-se em intervalos os possveis resultados do experimento para esta varivel,
pois caso contrrio pode ocontecer que cada resultado ocorra somente um nmero pequeno
de vezes e no se possa resumir a informao a respeito da dada varivel. Esta situao
ocorre frequentemente no caso de variveis que assumem valores reais. No exemplo anterior,
suponha que se deseje construir uma tabela de frequncia para a varivel Salrio. Neste
caso, pode-se considerar intervalos de tamanho 3 para construir a seguinte tabela:
Salrio Frequncia (n
i
) Frequncia Relativa (f
i
) Porcentagem 100f
i
[0, 3) 1 0,1 10
[3, 6) 6 0,6 60
[6, 9) 2 0,2 20
[9, 12) 1 0,1 10
Total 10 1 100
A escolha dos intervalos acima arbitr1ria, dependendo do contexto cada prossional
pode escolher um conjunto diferente de intervalos. A nica restrio que tal escolha deve
satisfazer que estes intervalo sejam disjuntos e que cubram todos os valores que foram
obtidos pela varivel no experimento. Se forem escolhidos poucos intervalos, perde-se in-
formao, pois note que a tabela s arma que 6 pessoas tm salrio entre 3 e 6 salrios
mnimos sem especicar qual o salrio exato deles. Por outro lado, se muitos intervalos so
escolhidos, ento a inteno de resumir os resultados do experimento no cumprida. Em
geral, recomenda-se o uso de 5 a 15 intervalos de comprimentos iguais.
Um lembrete: a Estatstica mais velha que o computador digital. O signicado desta
declarao que os estatticos do passado desenvolveram frmulas fantsticas para calcular
indicadores quando nem de calculadoras dispunham. Portanto, os indicadores estatsticos
vistos a seguir podem ser computados ou sem o uso de computadores ou com o uso de
computadores, isto , ou so usadas frmulas j completamente exauridas na literatura, ou
quase nenhuma frmula usada.
Cenrio: seja um conjunto de dados, ou observaes,
x
1
, x
2
, , x
n
que podem ser de uma populao, ou amostra, ou mais de um conjunto de dados, de uma
varivel quantitativa, discreta ou contnua. O objetivo, usualmente, decidir algo a partir
dos dados considerados.
Problema: Sumarizar informaes sobre o conjunto de dados.
As medidas ou os indicadores estatsticos mais comumente usados so
(i) as medidas de tendncia central ou posio: mdia aritmtica (x) , mediana ( x) e moda
( x);
(ii) as medidas de disperso: amplitude (r), varincia (
2
), desvio padro () e coeciente
de variao (cov);
(iii) as separatrizes ou quantis: quartis (Q), decis (D), centis (C) ou percentis (a mediana
tambm uma separatriz).
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 201
A mdia aritmtica de uma varivel a soma dos seus valores divididos pelo nmero total
de resultados obtidos.
A moda de uma varivel denida como sendo o seu resultado que ocorreu com maior
frequncia durante o experimento. A moda no necessariamente nica. Se houver empate
entre a frequncia de ocorrncia de mais de dois possveis resultados, ento todos sero moda
da varivel em questo. A moda no necessariamente numrica, por exemplo, se a varivel
em questo for grau de instruo na populao brasileira, a moda onde tem uma maior
concentrao de indivduos. Tambm uma varivel pode bo ter moda, o que acontece se
no houver valores que se repitam.
A mediana o resultado que ocupa a posio central de uma srie de observaes, quando
estas esto ordenadas. Quando o nmero de observaes for par a mediana a mdia
aritmtica entre as duas observaes centrais.
A presena de valores ou muito pequenos ou alteram sua mdia e no alteram a mediana.
Portanto, a mediana muitas vezes usada para representar uma medida central de um
conjunto de observaes.
As medidas de posio vistas informam sobre a posio central dos resultados mas no
sobre sua variabilidade. Para tanto so necessrias as medidas de dispers3o. Por exemplo,
considere dois grupos de resultados de uma certa varivel: Grupo 1 = {3, 4, 5, 6, 7} e Grupo 2
= {1, 3, 5, 7, 9}. Ambos os grupos possuem a mesma mdia e mediana que igual a 5, porm
os resultados do Grupo 1 esto mais aglutinados ao redor deste valor. Medidas de disperso
so utilizadas para mensurar esta variabilidade. Estas medidas analisam quo distante da
mdia esto os resultados. Para uma varivel, a medida de disperso mais usada o desvio
padro, e para mais de uma varivel, o coeciente de variao.
Apenas informao sobre as medidas de posio e de disperso no informam a respeito da
simetria ou assimetria da distribuio dos resultados. Os quantis ou separatrizes so medidas
que servem para informar a este respeito. A mediana, como visto, tal que metade dos
resultados so menores e a outra metade so maiores que a mediana. Analogamente, podemos
denir um quantil de ordem p ou p-quantil, indicado por q(p), onde p uma proporo
qualquer, 0 < p < 1, tal que 100p% dos resultados sejam menores que q(p). Existem alguns
quantis que so usados mais frequentemente e recebem nomes particulares: q(0.25) o 1o.
quartil ou 25o. percentil; q(0.5) a mediana, 5o. decil, ou 50o. percentil; q(0.75) o terceiro
quartil ou 75o. percentil; q(0.95) o 95o. percentil.
Por exemplo, se tem-se uma cole de n resultados, como denir q(1/n)? Seja x
(1)

x
(2)
x
(n)
uma ordenao dos resultados em ordem crescente, conhecida como es-
tatstica de ordem dos resultados. Ento, em analogia com a denio da mediana, o quantil
q(1/n) denido como sendo a mdia aritmtica entre x
(1)
e x
(2)
, de modo que exatamente
100/n% dos resultados so menores que q(1/n). Similarmente, o quantil q(2/n) denido
como sendo a mdia aritmtica entre x
(2)
e x
(3)
. Mas, como q(1/n) x
(2)
q(2/n), o resul-
tado x
(2)
deve corresponder a um quantil q(p), onde
1
n
< p <
2
n
. Para a denio formal dos
quantis assume-se linearidade entre os quantis da forma q(m/n), para m n. Ento, como
x
(2)
=
q(1/n)+q(2/n)
2
, x
(2)
igual ao quantil q(
1
n
+
2
n
2
) = q(
3
2n
). Em geral, seguindo o mesmo
argumento, x
(i)
igual ao quantil q(
i1
n
+
i
n
2
) = q(
2i1
2n
) = q(
i0,5
n
), para i = 1, 2, . . . , n.
Contudo, dependendo do valor de p, preciso cuidado ao denir o quantil. Se p <
1
2n
,
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 202
como x
(1)
o menor valor observado dos resultados e igual ao quantil q(
1
2n
), dene-se q(p)
como sendo igual a x
(1)
. Similarmente, se p >
2n1
2n
, como x
(n)
o maior valor observado dos
resultados e igual ao quantil q(
n0,5
n
), dene-se q(p) como sendo igual a x
(n)
. Finalmente,
se p =
2(i1)1
2n
+ (1 )
2i1
2n
, onde 0 < < 1, ent3o dene-se q(p) como sendo igual a
x
(i1)
+ (1 )x
(i)
.
Resumindo:
q(p) =
_

_
x
(1)
, se p <
1
2n
,
x
(n)
, se p >
2n1
2n
,
x
(i)
, se p =
2i1
2n
,
x
(i1)
+ (1 )x
(i)
, se p =
2(i1)1
2n
+ (1 )
2i1
2n
, onde 0 < < 1.
Exemplo 11.2.1: Considere que os resultados de um teste foram: 3,4,5,6, e 7. Determinar
(a) q(0.05), (b) q(0.25), e (c) q(0.75).
Soluo: Para (a), como 0.05 <
1
10
, tem-se que q(0.05) = 3. Para (b), note que 0.25 =
(0.1)+(1)0.3, se = 1/4. Portanto, q(0.25) = (1/4)3+(3/4)4 = 15/4. Finalmente, para
(c), note que 0.75 = (0.7) + (1 )0.9, se = 3/4. Portanto, q(0.75) = (3/4)6 + (1/4)7 =
25/4.
Uma medida de disperso alternativa a distncia interquartil, d
q
, denida como sendo
a diferena entre o terceiro e o primeiro quartil, isto , d
q
= q(0.75) q(0.25).
Os cinco valores x
(1)
, q(0.25), q(0.5), q(0.75), e x
(n)
so importantes para se ter uma idia
a respeito da assimetria da distribui dos dados. Para se ter uma distribui aproximada-
mente simtrica, preciso que:
(a) q(0.5) x
(1)
x
(n)
q(0.5);
(b) q(0.5) q(0.25) q(0.75) q(0.5);
(c) q(0.25) x
(1)
x
(n)
q(0.75).
A questo que se coloca agora se os dados sero ou no agrupados. At antes do
computador, dependendo da quantidade de dados, agrup-los nas chamadas distribuies
de freqncias era inevitvel. Depois do computador, agrupar os dados s se for necessrio
observar algum tipo de padro de comportamento funcional deles. A seguir ser visto como
calcular os indicadores estatsticos referenciados anteriormente, para dados agrupados e no
agrupados. Neste texto as frmulas para dados agrupados no sero provadas, uma vez que
as mesmas encontram-se em vrios dos textos bsicos sobre o assunto.
11.2.3 Dados agrupados
Se os dados esto agrupados ento esto dispostos numa tabela como a tabela abaixo, a qual
tem k classes com respectivas freqncias absolutas f
i
i, i = 1, , k, limites inferiores l
i
e
superiores L
i
. Usualmente o limite superior da classe i igual ao inferior da classe i +1, isto
, L
1
= l
2
, L
2
= l
3
, etc.
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 203
Tabela 1 Tabela de freqncias
Classes f
i
l
1
L
1
f
1
l
2
L
2
f
2
l
3
L
3
f
3

l
k
L
k
f
k
Total n
Medidas de Tendncia Central
Mdia aritmtica, x
x =
x
1
f
1
+ . . . + x
k
f
k
f
1
+ . . . + f
k
=
1
n
k

i=1
x
i
f
i
.
Mediana, x
A mediana o valor que divide o conjunto de dados em duas partes iguais, isto , 50%
so menores ou iguais que x e 50% so maiores ou iguais que x. A mediana no nica; seu
clculo implica no clculo das freqncias acumuladas F
i
. Neste caso tem-se a Tabela 2.
Tabela 2 Tabela com as frequncias acumuladas
Classes f
i
F
i
l
1
L
1
f
1
f
1
l
2
L
2
f
2
f
1
+ f
2
l
3
L
3
f
3
f
1
+ f
2
+ f
3

l
k
L
k
f
k
f
1
+ f
2
+ f
k
Total n -
A frmula da mediana a seguinte.
x = l
i
+ (
n
2

f
ant
f
i
)h
i
,
onde,
l
i
, limite inferior da classe da mediana,
f
i
, freqncia absoluta da classe da mediana,
h
i
, amplitude da classe da mediana,

f
ant
, somat orio das
freqncias anteriores a classe da mediana.
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 204
A frmula da mediana, com as devidas modicaes, pode ser usada para calcular qual-
quer separatriz: mediana, quantis (Q), decis (D) e centis (C) (ou percentis).
Moda, x
A moda o valor que mais se repete, portanto est associado classe de maior freqncia
absoluta. Uma distribuio pode ter mais de uma moda.
x = l
i
+ (

1

1
+
2
)h
i
,
onde,
l
i
, limite inferior da classe modal,
h
i
, amplitude da classe modal,

1
, freqncia absoluta da classe modal menos
freqncia absoluta da classe imediatamente anterior,

2
, freqncia absoluta da classe modal menos
freqncia absoluta da classe imediatamente posterior.
Medidas de Disperso
Amplitude, r
r = x
(n)
x
(1)
.
Varincia,
2

2
=
1
n
k

i=1
(x
i
x)
2
f
i
.
Desvio padro,
= +

2
.
Coeciente de variao, cov
cov =

x
.
11.2.4 Quantis
O clculo de qualquer quantil pode ser realizado atravs de uma modicao no numerador da
frmula da mediana da seguinte maneira. O termo
n
2
pode ser lido como
1
2
n; essa frao indica
qual a classe da mediana atravs da observao da frequncia acumulada. Portanto, para
o i-simo quantil, i = 1, , 3, j-simo decil, j = 1, , 9 ou k-simo centil, k = 1, , 99
tem-se, respectivamente,
i
4
n,
j
10
n e
k
100
n.
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 205
11.2.5 Dados no agrupados
Mdia aritmtica, x
x =
x
1
+ . . . + x
n
n
=
1
n
n

i=1
x
i
.
Mediana, x
Algoritmo:
(i) ordenar os dados:
x
(1)
, x
(2)
, , x
(n)
(ii) calcular o termo central:
x =
_

_
x
(
n+1
2
)
, se n mpar,
x
(
n
2
)
+x
(
n
2
+1)
2
, se n par.
Moda, x
Se os dados no esto agrupados, o valor modal o que ocorre mais vezes, se mais de um
valor ocorre com igual freqncia, ambos so modas.
Medidas de Disperso
Varincia,
2

2
=

n
i=1
(x
i
x)
2
n
.
Desvio padro,
= +

2
.
Coeciente de variao, cov
cov =

x
.
11.2.6 Separatrizes
Jain (Jain, 1991) prope que a frmula
(n 1) + 1
seja usada para calcular a posio da desejada separatriz. Como uma posio, ento
um inteiro positivo, portanto, o valor encontrado deve ser arredondado para o inteiro mais
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 206
prximo. Por exemplo, se n = 356 e deseja-se calcular C
46
, isto , o quadragsimo sexto
contil, ento a posio de C
46
no conjunto de dados dada por:
(356 1)
46
100
= 163.3
cujo inteiro mais prximo 163. Portanto, C
46
est na centsima sexuagsima terceira
posio.
O exemplo a seguir calcula os indicadores estatsticos agrupando e no agrupando os
dados.
Exemplo 11.2.2: Os dados a seguir so de Jain (Jain, 1991), pgina 195, e correspondem
aos tempos de CPU de dado experimento:
3.1 4.2 2.8 5.1 2.8 4.4 5.6 3.9
3.9 2.7 4.1 3.6 3.1 4.5 3.8 2.9
3.4 3.3 2.8 4.5 4.9 5.3 1.9 4.2
3.2 4.1 5.1 3.2 3.9 4.8 5.9 4.2
Dados agrupados
Distribuio de freqncias:
Tabela 1 Tabela de freqncias para os tempos de CPU (ms)
Classes freqncias
1.5 2.5 1
2.5 3.5 11
3.5 4.5 11
4.5 5.5 7
5.5 6.5 2
Total 32
Exemplo 11.2.3: O servio de atendimento ao consumidor de uma concessionria de
veculos recebe as reclamaes dos clientes. Tendo em vista a melhoria na qualidade do
atendimento foi anotado o nmero de reclamaes dirias nos ltimos 30 dias: 4, 5, 3, 4, 2,
6, 4, 1, 6, 5, 3, 4, 4, 5, 2, 3, 6, 5, 4, 2, 2, 3, 4, 3, 3, 2, 1, 1, 5, e 2.
(a) Faa uma tabela de frequncias desses dados.
(b) Determine o valor da mdia, moda, mediana, desvio padro, e do 1o. e 3o. quartis.
(c) Com base nos valores obtidos na letra (b), voc diria que a distribuio dos dados sim
trica de dados?
Campos & Rgo
11.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES 207
Solu73o: A tabela de frequncia dos dados dada por:
No. de Reclama75es Freq. Relativa
1 3/30
2 6/30
3 6/30
4 7/30
5 5/30
6 3/30
A mdia dos dados dada por:
x = (1 3/30) + (2 6/30) + (3 6/30) + (4 7/30) + (5 5/30) + (6 3/30) 3.47.
A moda igual a 4. A mediana dada por 3.5. A varincia dada por:

2
= (13/30)+(46/30)+(96/30)+(167/30)+(255/30)+(363/30)3,47
2
2.16.
Logo, o desvio padro igual aproximadamente a 1.47. O primeiro quartil dado por
x
(8)
= 2, e o terceiro quartil 9 dado por x
(23)
= 5. Com estes resultados observa-se que
(a) q(0.5) x
(1)
= 2.5 = x
(n)
q(0.5);
(b) q(0.5) q(0.25) = 1.5 = q(0.75) q(0.5);
(c) q(0.25) x
(1)
1 = x
(n)
q(0.75).
Logo, estes dados formam uma distribuio simtrica.
No caso de variveis contnuas descritas atravs de sua distribuio de frequncias, para
o clculo dos quantis utiliza-se uma metodologia similar a do clculo da mediana, sendo que
agora q(p), 0 < p < 1, calculado atrav de uma proporo de forma que p% da rea do
histograma esteja antes de q(p) e (1 p)% esteja aps q(p), como no seguinte exemplo.
Exemplo 11.2.4: O nmero de divrcios na cidade, de acordo com a durao do casamento,
est representado na tabela abaixo:
Anos de Casamento No. de Div3rcios
0 6 2.800
6 12 1.400
12 18 600
18 24 150
24 30 50
(a) Encontre o 1o. e o 9o. decis.
(b) Qual o intervalo interquartil?
Solu73o:
Campos & Rgo
11.3. EXERCCIOS 208
(a) Encontra-se o primeiro decil atravs de uma proporo, pois a primeira classe contm
56% das observaes, ento
q(0.1)
10
=
6
56
,
logo, q(0.1) = 1.07. Para o nono decil note que as duas primeiras classes contm 84%
das observaes, e as trs primeiras contm 96% das observaes, ento o nono decil
deve estar na terceira classe e podem-se determin-lo tambm por uma proporo:
q(0.9) 12
6
=
6
12
,
logo q(0.9) = 15.
(b) Para se obter o intervalo interquartil, necessrio encontrar o primeiro e o terceiro
quartil que podem ser obtidos de maneira similar a parte (a).
q(0.25)
25
=
6
56
,
logo, q(0.25) = 2.68. O terceiro quartil deve estar na segunda classe, ento como a
primeira classe j contm 56% das observaes:
q(0.75) 6
19
=
6
28
,
logo, q(0.75) = 10.07. Portanto, o intervalo interquartil [2.68, 10.07].
11.3 Exerccios
Campos & Rgo
Captulo 12
Uma Introduo Inferncia Estatstica
Quando modelos probabilsticos so aplicados em algum problema prtico, preciso ter
informao a respeito da distribuio de probabilidade da varivel aleatria de interesse.
Existem dois processos clssicos para a obteno da distribuio de uma varivel aleatria:
eduzir uma distribuio a priori de um especialista da rea, ou inferir a distribuio a partir
de uma anlise de dados. Neste livro, no sero tratados mtodos de eduo, e sim mtodos
de inferncia.
12.1 Populao e Amostra
Suponha que o interesse de determinada pesquisa fosse a distribuio do consumo mensal
de energia eltrica de todos os domiclios brasileiros. Se fosse possvel obter os valores do
consumo para todos os domiclios, a distribuio exata poderia ser obtida e da calculados
parmetros de posio e disperso, por exemplo. Nesse caso, inferncia estatstica no seria
necessria pois seriam conhecidos todos os valores de interesse.
Porm, raro a situao em que se consegue obter a distribuio exata de alguma va-
rivel, ou porque os custos so elevados, ou o tempo para a coleta de tais dados longo, ou
porque, s vezes, o experimento aleatrio que se realiza consiste de um processo destrutivo.
Por exemplo, medir a tenso mxima de entrada que um determinado tipo de estabilizador
suporta. O experimento poderia comear com uma tenso de 0 volts, ir aumentado grada-
tivamente at atingir a tenso mxima denida como sendo a tenso onde o estabilizador
queimou. Deste modo, se todos os estabilizadores fossem testados, no restaria nenhum para
ser vendido. Assim a soluo selecionar parte dos estabilizadores (amostra), analis-la e
inferir propriedades para todos os estabilizadores (populao). Esta questo, dentre outras,
objeto de estudo da rea de inferncia estatstica.
Denio 12.1.1: Populao o conjunto de todos os elementos ou resultados sob inves-
tigao.
Denio 12.1.2: Amostra um subconjunto formado por elementos selecionados da
populao.
209
12.1. POPULAO E AMOSTRA 210
Frequentemente, usa-se uma distribuio de probabilidades como um modelo para uma
populao. Por exemplo, um engenheiro de estruturas pode considerar como normalmente
distribuda, com mdia e varincia
2
desconhecidas, a populao de resistncias a trao de
um elemento estrutural de um chassi; tem-se ento uma populao normal ou uma populao
distribuda normalmente. Como outro exemplo, suponha que o interesse seja investigar se
uma dada moeda honesta e para isso uma moeda lanada 50 vezes. Neste caso, a
populao pode ser considerada como tendo a distribuio de uma varivel aleatria X que
assume o valor 1, se ocorrer cara, e 0 em caso contrrio, que uma Bernoulli com parmetro
p desconhecido. A amostra ser a sequencia binria de comprimento 50. Nestes dois ltimos
caso a populao foi especicada como sendo a distribuio de uma varivel aleatria X que
modela a caracterstica de interesse. Este artifcio exige a proposta de um modelo para a
varivel X. So comuns as expresses a populao f(x) ou a populao das resistncias
X N(,
2
).
12.1.1 Seleo de uma Amostra
A m de se ter inferncias realmente informativas a respeito de uma dada populao, precisa-
se cuidado com os mtodos de seleo de uma amostra; necessrio que a amostra seja
representativa da populao. Por exemplo, ao se fazer uma pesquisa de opinio pblica
a respeito de um dado governo, se s escolhidas pessoas que vivem em uma dada regio
beneciada por esse governo, a amostra pode no ser representativa de toda a populao,
pois esta contm pessoas que foram beneciadas pelo governo, neste caso diz-se que a amostra
viesada.
Nesta seo visto apenas o caso de amostragem aleatria simples. Este procedimento
o mtodo mais simples de se selecionar uma amostra aleatria de uma populao e serve de
base para outros mtodos de amostragem mais complexos. No caso de uma populao nita,
implementa-se este mtodo numerando os elementos da populao e em seguida escolhendo
um nmero numa tabela de nmeros aleatrios ou gerando nmeros aleatrios em um com-
putador. Neste caso, todos os elementos da populao tm a mesma probabilidade de serem
selecionados. Repete-se o processo at que n elementos sejam selecionados. A amostragem
com reposio, se for permitido que uma unidade possa ser sorteada mais de uma vez, e
sem reposio, se o elemento escolhido for removido da populao, no mais podendo ser
selecionado. Do ponto de vista da quantidade de informao contida na amostra, amostrar
sem reposio mais adequado. Contudo, a amostragem com reposio, implica em inde-
pendncia entre os elementos selecionados e isto facilita o desenvolvimento de propriedades
de estimadores, conforme ser visto adiante. Portanto, este livro restringe-se ao caso com
reposio. Em geral, tem-se a seguinte denio de amostra aleatria simples:
Denio 12.1.3: Uma amostra aleatria simples de tamanho n de uma populao mode-
lada por uma varivel aleatria X, com uma dada distribuio, um conjunto de n variveis
aleatrias independentes (X
1
, X
2
, . . . , X
n
), tambm denotada por X
1
, X
2
, . . . , X
n
, cada uma
com a mesma distribuio de X.
Intuitivamente, X
i
representa a observao do i-simo elemento sorteado. Portanto, no
caso de uma populao X contnua, com funo densidade de probabilidade f, a funo
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 211
densidade de probabilidade conjunta da amostra (X
1
, X
2
, . . . , X
n
), ser dada por:
f
X
1
,X
2
,...,Xn
(x
1
, x
2
, . . . , x
n
) = f(x
1
)f(x
2
) f(x
n
).
Dependendo de como os nmeros aleatrios so gerados, so conhecidos tanto a distribui-
o da varivel aleatria sendo simulada quanto seus parmetros. Por exemplo, ao se gerar
50 nmeros de uma distribuio normal padro obtm-se uma amostra aleatria simples
de tamanho 50 desta populao normal. Se outra pessoa observa apenas estes 50 nmeros
gerados, ela nada conhece a respeito da distribuio que os gerou nem seus parmetros. O
objetivo da inferncia estatstica fornecer critrios para que se possa descobrir a forma da
distribuio ou os parmetros da populao que gerou a amostra sendo observada.
12.2 Estatsticas e Parmetros
Uma vez obtida a amostra de uma dada populao, muitas vezes o interesse calcular alguma
funo desta amostra. Por exemplo, a mdia da amostra (X
1
, X
2
, . . . , X
n
) dada por
X =
X
1
+ X
2
+ . . . + X
n
n
.
Como X uma funo de variveis aleatrias, tambm uma varivel aleatria.
Denio 12.2.1: Uma estatstica T uma funo da amostra (X
1
, X
2
, . . . , X
n
).
As estatsticas mais comuns so:
(i) Mdia da amostra: X = (1/n)

n
i=1
X
i
;
(ii) Varincia da amostra: S
2
=
1
n1

n
i=1
(X
i
X)
2
;
(iii) Proporo amostral: p;
(iii) O menor valor da amostra: X
(1)
= min(X
1
, X
2
, . . . , X
n
);
(iv) O maior valor da amostra: X
(n)
= max(X
1
, X
2
, . . . , X
n
);
(v) Amplitude amostral: W = X
(n)
X
(1)
;
(vi) A i-sima maior observao da amostra: X
(i)
.
1
Para diferenciar caractersticas da amostra de caractersticas da populao, chama-se de
parmetro uma medida usada para descrever uma caracterstica da populao. Assim se
uma populao for modelada por uma varivel aleatria X, a esperana e a varincia E(X)
e V (X), respectivamente, seriam parmetros.
1
Os elementos da amostra ordenados, isto , X
(1)
X
(2)
X
(n)
, so conhecidos como estatsticas
de ordem da amostra.
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 212
12.2.1 Distribuies Amostrais
Suponha o interesse em algum parmetro da populao e que decide-se usar uma esta-
tstica T de uma amostra aleatria simples (X
1
, X
2
, . . . , X
n
) da populao. Uma vez que a
amostragem realizada, pode-se calcular T = t
0
e baseado neste valor que ser realizada
uma armao sobre . T sendo uma funo de variveis aleatrias tambm uma varivel
aleatria e, portanto, possui uma dada distribuio. Esta distribuio conhecida como
distribuio amostral da estatstica T.
Exemplo 12.2.2: Retiram-se com reposio todas as amostras de tamanho 2 da populao
{1, 3, 5, 5, 7}. A distribuio conjunta da amostra (X
1
, X
2
) dada por:
1 3 5 7
1 1/25 1/25 2/25 1/25
3 1/25 1/25 2/25 1/25
5 2/25 2/25 4/25 2/25
7 1/25 1/25 2/25 1/25
Calculando a distribuio da mdia amostral, P(X = 3) = P(X
1
= 1, X
2
= 5) +P(X
1
=
X
2
= 3) + P(X
1
= 5, X
2
= 1) = 5/25. Similarmente, os demais valores podem ser obtidos
conforme a tabela seguinte:
x 1 2 3 4 5 6 7
P(X = x) 1/25 2/25 5/25 6/25 6/25 4/25 1/25
Exemplo 12.2.3: No caso do lanamento de uma moeda 50 vezes, usando como estatstica
X o nmero de caras obtidas, a distribuio amostral desta estatstica uma binomial com
parmetros n = 50 e p, onde p a probabilidade de cara em um lanamento qualquer desta
moeda. Se o objetivo for saber se esta moeda honesta, ou seja, se p = 0.5, e sabe-se que em
50 lanamentos ocorreram 36 caras, calcula-se, por uma B(50, 0.5), P
0.5
(X 36) = 0.0013,
ou seja, se a moeda for honesta, a probabilidade de se obterem 36 ou mais caras igual
a 0.0013, ento existe evidncia que p deve ser diferente de 0.5. Por outro lado, com 29
caras, obtm-se P
0.5
(X 29) = 0.1611, portanto, se a moeda for honesta aproximadamente
1/6 das vezes observa-se um valor maior ou igual a 29, ento, neste caso, os dados no so
sucientes para descartar a hiptese que a moeda seja honesta.
Exemplo 12.2.4: Uma populao consiste de quatro nmeros 1, 3, 5, e 7. Considere todas
as possveis amostras de tamanho 2 de elementos que podem ser selecionadas com reposio
desta populao. Determine.
(a) A mdia e varincia populacionais.
(b) A distribuio da mdia e varincia amostrais.
Soluo: A mdia populacional dada por =
1+3+5+7
4
= 4, e a varincia populacional por

2
=
1
2
+3
2
+5
2
+7
2
4
4
2
= 5. Para se determinar a mdia a varincia amostrais, considere a
seguinte tabela onde todos as possveis amostras esto enumeradas:
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 213
x
1
x
2
x s
2
1 1 1 0
1 3 2 2
1 5 3 8
1 7 4 18
3 1 2 2
3 3 3 0
3 5 4 2
3 7 5 8
5 1 3 8
5 3 4 2
5 5 5 0
5 7 6 2
7 1 4 18
7 3 5 8
7 5 6 2
7 7 7 0
Como cada uma das possveis amostras tem probabilidade 1/16, a distribuio da mdia
amostral e da varincia amostral so respectivamente descritas pelas tabelas a seguir:
x 1 2 3 4 5 6 7
P(X = x) 1/16 2/16 3/16 4/16 3/16 2/16 1/16
e
s
2
0 2 8 18
P(S
2
= s
2
) 4/16 6/16 4/16 2/16
Para algumas estatsticas no possvel obter analiticamente sua distribuio amostral,
ento simula-se um nmero grande de amostras diferentes e calculam-se as estatsticas de
cada uma dessas amostras para obter uma distribuio amostral emprica da estatstica
de interesse. Por exemplo, para obter a mediana das alturas de amostras de 5 mulheres
retiradas da populao X N(167, 25), pode-se gerar, via qualquer software, 200 amostras
de tamanho 5 desta populao, determinar a mediana de cada uma dessas amostras e calcular
medidas de posio e disperso dos valores das medianas obtidos com essas amostras, bem
como representao grcas destes valores.
12.2.2 Distribuio da Mdia da Amostra, X
A seguir ser estudada a distribuio da mdia amostral X. Antes de se obter informaes
sobre a forma desta distribuio, pode-se determinar a esperana e a varincia de X.
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 214
Teorema 12.2.5: Seja X uma varivel aleatria com mdia , varincia
2
e (X
1
, X
2
, . . . , X
n
)
uma amostra aleatria simples de X. Ento,
E(X) = e V (X) =

2
n
.
Prova: Pela linearidade da esperana,
E(X) =
1
n
(E(X
1
) + E(X
2
) + + E(X
n
)) = .
Como X
1
, X
2
, . . . , X
n
so independentes,
V (X) =
1
n
2
(V (X
1
) + V (X
2
) + + V (X
n
)) =

2
n
.
Conforme n cresce a distribuio de X tende a car concentrada em torno de sua mdia
, pois sua varincia vai diminuindo. Alm disso, o prximo teorema, baseado no TCL, d
informao sobre a distribuio amostral da mdia para valores grandes de n.
Teorema 12.2.6: Para amostras aleatrias simples (X
1
, X
2
, . . . , X
n
), retiradas de uma po-
pulao com mdia e varincia
2
nita, a distribuio amostral da mdia X aproxima-se,
para n grande, de uma distribuio normal, com mdia e varincia
2
/n, ou seja, se
F
X

2
/n
for a funo de distribuio acumulada de
X

2
/n
, ento, x IR
lim
n
F
X

2
/n
(x) = (x).
Prova: A prova deste teorema est fora do escopo deste curso. Pode ser encontrada em B.
James (1981).
Caso a populao j possua uma distribuio normal, como X uma combinao linear de
X
1
, X
2
, . . . , X
n
que so independentes e possuem distribuio normal, a distribuio amostral
da mdia amostral ser exatamente uma normal para qualquer valor de n, e a mdia dessa
distribuio ser igual a mdia da populao e varincia ser igual a varincia da populao
dividida por n.
Em geral o TCL arma que para valores grandes de n, X ter uma distribuio aproxima-
damente normal, onde a velocidade da convergncia depende da distribuio da populao.
Se esta for prxima da normal, a convergncia mais rpida; se for muito diferente a con-
vergncia mais lenta. Como regra emprica, para amostras de tamanho de 30 elementos, a
aproximao para a normal j pode ser utilizada.
A diferena entre a mdia amostral e a mdia da populao conhecida como erro
amostral da mdia, isto , e = X . O Teorema Central do Limite indica que

n(X)


N(0, 1), ou seja,

ne

N(0, 1).
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 215
Exemplo 12.2.7: Suponha que uma mquina est regulada para produzir lmpadas com
tempo de vida til mdio de 10000horas. De uma amostra de 50 lmpadas produzidas por
esta mquina verica-se o tempo de vida til de cada uma delas. Determine a probabilidade
de que o tempo de vida til mdio seja menor ou igual a 8000horas.
Soluo: Sabe-se que o tempo de vida til de uma lmpada distribudo de acordo com
uma exponencial. Portanto, como o tempo de vida til mdio de 10000horas, a mdia
populacional 10000horas e a varincia populacional igual a 10
8
horas
2
. Alm disso, como
a amostra maior que 30, utiliza-se o TCL para armar que a mdia amostral tem uma
distribuio N(10
4
,
10
8
50
). Portanto,
P(X 8000) = P(Z

50(8000 10000)
10000
) = (

2) = 0.0793.
12.2.3 Distribui73o da Varincia da Amostra, S
2
12.2.4 Distribuio da Proporo Amostral, p
Suponha que a proporo de indivduos de uma populao que so portadores de uma de-
terminada caracterstica seja igual a p. Logo, pode-se denir uma varivel aleatria X que
assume o valor 1 se o indivduo possui a caracterstica e o valor 0, caso contrrio. Portanto,
X tem uma distribuio Bernoulli de parmetro p. Considere agora uma amostra aleatria
simples de tamanho n desta populao e seja X
n
o nmero total de indivduos na amostra
que possuem a caracterstica de interesse. Ento, X
n
tem uma distribuio binomial com
parmetros n e p. A proporo de indivduos portadores da caracterstica dada por
p =
X
n
n
.
Portanto, pode-se determinar a distribuio de p a partir da distribuio de X
n
, utilizando
a relao: P( p =
k
n
) = P(X
n
= k).
Pelo Teorema Central do Limite se (X
1
, X
2
, . . . , X
n
) formam uma amostra aleatria sim-
ples desta populao, a distribuio amostral de X aproximadamente igual a N(p, p(1
p)/n) para valores grandes de n. Portanto, a distribuio de X
n
= nX pode ser aproximada
por uma normal N(np, np(1 p)). Como p = X, a distribuio da proporo amostral
tambm pode ser aproximada por N(p, p(1 p)/n) para valores grandes de n.
Exemplo 12.2.8: Uma mquina est regulada para produzir lmpadas de modo que apenas
10% delas tenham tempo de vida til menor ou igual a 1000horas. De uma amostra de 50
lmpadas produzidas por esta mquina, qual a probabilidade de se encontrar no mximo
90% com tempo de vida til maior que 1000 horas?
Soluo: Como a amostra maior que 30, utiliza-se o TCL para armar que a proporo
amostral tem uma distribuio N(0.1,
(0.1)(0.9)
50
). Portanto,
P(1 p 0.9) = P( p 0.1) = P(Z 0) = 0.5.
Campos & Rgo
12.2. ESTATSTICAS E PARMETROS 216
12.2.5 Determinao do Tamanho de uma Amostra
Em certas situaes o interesse determinar o tamanho de uma amostra de modo a se obter
um erro de estimao previamente estipulado, com certo grau de conana. Por exemplo,
supondo que a mdia populacional ser estimada atravs da mdia amostral X de uma
amostra de tamanho n, o objetivo ento determinar o menor valor de n tal que
P(|X | ) ,
onde representa o grau de conana necessrio para que o erro amostral seja no mximo
igual a . Como a distribuio amostral de X N(,

2
n
), o tamanho mnimo da amostra n
tem que satisfazer
P( X ) = P(

) = ,
onde Z tem uma distribuio normal padro. Dado , pode-se obter z

da distribuio
normal N(0, 1)
P(
1
(
+ 1
2
) Z
1
(
+ 1
2
)) = P(Z
1
(
+ 1
2
)) P(Z <
1
(
+ 1
2
))
=
+ 1
2
(1
+ 1
2
) = .
Portanto,

=
1
(
+ 1
2
),
ou seja,
n =

2
(
1
(
+1
2
))
2

2
.
O tamanho da amostra depende da varincia da populao. Como era de se esperar,
quanto mais variabilidade tiver a populao, mais amostras sero necessrias para que se
possa fazer armaes conveis a respeito dos erros dos estimadores. Contudo, em geral o
valor da varincia da populao desconhecido. Na prtica, pode-se fazer um projeto piloto
para que se possa estimar o valor desta varincia e, em seguida, us-la para determinar o
tamanho de amostra do estudo principal.
No caso de propores, como = p(1 p), ento
n =
(
1
(
+1
2
))
2
p(1 p)

2
.
Como na prtica, na maioria dos casos no se conhece o verdadeiro valor da proporo
populacional p, pode-se usar o fato que p(1 p)
1
4
, assim
n =
(
1
(
+1
2
))
2
4
2
.
Campos & Rgo
12.3. ESTIMADORES E ESTIMATIVAS 217
Exemplo 12.2.9: Uma varivel aleatria X tem distribuio amostral N(3, 2
2
). Qual deve
ser o tamanho n de uma amostra aleatria de X para que a mdia amostral X tenha 84.13%
dos valores menores que 3.4?
Soluo: P(X 3.4) = 0.8413. Portanto, como

n(X3)
2
tem distribuio normal padro,
0.8413 = P(X 3.4) = P(Z

n(3.4 3)
2
).
Logo,

n =
2
1
(0.8413)
0.4
= 5, ou seja, n = 25.
12.3 Estimadores e Estimativas
Uma aplicao muito importante de estatticas a obteno de estimativas para os parme-
tros da populao, tais como a mdia e a varincia populacionais. O mtodo de obteno de
estimadores garante que, uma instanciao do estimador, no caso uma estimativa, a qual
baseada nos valores amostrais, o nmero mais plausvel para um parmetro . Em geral,
se X for uma varivel aleatria com distribuio de probabilidades caracterizada por um
parmetro desconhecido , e se (X
1
, X
2
, . . . , X
n
) for uma amostra aleatria de tamanho n
de X, ento a estattica

= h(X
1
, X
2
, . . . , X
n
) chamada de um estimador de . Note que
depois da amostra haver sido selecionada,

assume um valor

E, chamado estimativa de
. Portanto, uma estimativa pontual de algum parmetro da populao um nico valor
numrico

E de uma estatstica

.
Os parmetros populacionais mais comuns que se desejam estimar so:
(i) A mdia da populao, .
(ii) A varincia,
2
, ou desvio-padro , da populao.
(iii) A proporo de itens populacionais que pertencem a uma classe de interesse, p.
(iv) A diferena de mdias de duas populaes,
1

2
.
(v) A diferena de propores de duas populaes, p
1
p
2
.
Estimadores para esses parmetros so, respectivamente:
(i) A mdia amostral, X.
(ii) A varincia amostral S
2
=
1
n1

n
i=1
(X
i
X)
2
.
(iii) A proporo amostral, p.
(iv) A diferena de mdias amostrais de duas amostras aleatrias independentes, X
1
X
2
.
(v) A diferena de propores amostrais de duas amostras aleatrias independentes, p
1
p
2
.
Existem vrias possibilidades de escolha para um estimador de um parmetro. Por exem-
plo, o estimador
(n1)S
2
n
para estimar a varincia populacional. Portanto, preciso estudar
propriedades dos estimadores para desenvolver um critrio que determine qual o melhor
estimador para determinado parmetro.
Campos & Rgo
12.3. ESTIMADORES E ESTIMATIVAS 218
12.3.1 Propriedades de Estimadores
O problema da estimao determinar uma funo h(X
1
, X
2
, . . . , X
n
) que seja prxima de
, segundo algum critrio matemtico. O primeiro critrio o seguinte:
Denio 12.3.1: O estimador T no-viesado para se E(T) = .
O vis de um estimador T para um parmetro igual a E(T) . Logo, um estimador
T no-viesado para , se o seu vis for igual a zero.
Exemplo 12.3.2: A mdia amostral X um estimador no-viesado para mdia populaci-
onal , pois
E(X) =
1
n
n

i=1
E(X
i
) = .
A proporo amostral p um estimador no-viesado para a proporo populacional p
pois chamando de Y
i
a varivel aleatria que igual a 1 se o i-simo indivduo da amostra
possui a caracterstica de interesse, e igual a zero, em caso contrrio, tem-se que
E( p) =
1
n
n

i=1
E(Y
i
) = p.
Exemplo 12.3.3: Considere uma populao com N elementos, com mdia populacional
=
1
N

N
i=1
X
i
, e varincia populacional

2
=
1
N
N

i=1
(X
i
)
2
.
Um possvel estimador para
2
, baseado numa amostra aleatria simples de tamanho n
dessa populao,

2
=
1
n
n

i=1
(X
i
X)
2
.
Entretanto, este estimador viesado:
n

i=1
(X
i
X)
2
=
n

i=1
(X
i
+ X)
2
=
n

i=1
(X
i
)
2
2
n

i=1
(X
i
)(X ) +
n

i=1
(X )
2
=
n

i=1
(X
i
)
2
n(X )
2
.
Campos & Rgo
12.3. ESTIMADORES E ESTIMATIVAS 219
Portanto,
E(
2
) =
1
n
(
n

i=1
E(X
i
)
2
nE(X )
2
)
=
1
n
(
n

i=1
V (X
i
) nV ar(X))
=
1
n
(n
2
n

2
n
) =
n 1
n

2
.
Logo, o vis de
2
igual a
n1
n

2

2
=

2
n
. Portanto, o estimador
2
em geral
subestima o verdadeiro parmetro
2
. Por outro lado, o vis diminui com n tendendo a zero
quando n tende a innito. fcil ver que
S
2
=
n
n 1

2
um estimador no-viesado para
2
. Portanto, a varincia de uma amostra de tamanho
n dada por S
2
, onde o denominador igual a n 1, enquanto que a varincia de uma
populao de tamanho N dada por
2
, onde o denominador igual a N.
O segundo critrio a ser analisado o critrio da consistncia de um estimador. Intui-
tivamente, um estimador consistente se quando aumenta-se o tamanho da amostra n, a
probabilidade de que este dira do parmetro por mais que qualquer erro pre-especicado
> 0 tende a zero. Formalmente,
Denio 12.3.4: Uma sequncia {T
n
} de estimadores de um parmetro consistente
se, para todo > 0,
lim
n
P(|T
n
| > ) = 0.
Exemplo 12.3.5: A sequncia de estimadores X
n
consistente, pois como E(X
n
) = e
V (X
n
) =

2
n
, utilizando a desigualdade de Tchebyche:
P(|X
n
| > )

2
n
2
0,
quando n , para qualquer > 0.
O seguinte teorema determina se uma dada sequncia de estimadores consistente:
Teorema 12.3.6: Se {T
n
} uma sequncia de estimadores de tal que lim
n
E(T
n
) =
e lim
n
V (T
n
) = 0, ento {T
n
} consistente.
Prova: Pela desigualdade triangular, se |T
n
| > , ento |E(T
n
)| >

2
ou |T
n
E(T
n
)| >

2
. Portanto,
P(|T
n
| > ) P(|E(T
n
) | >

2
) + P(|T
n
E(T
n
)| >

2
).
Campos & Rgo
12.3. ESTIMADORES E ESTIMATIVAS 220
Logo, pela desigualdade de Tchebyche
P(|T
n
| > ) P(|E(T
n
) | >

2
) +
4V (T
n
)

2
.
Tomando os limites quando n :
lim
n
P(|T
n
| > ) lim
n
P(|E(T
n
) | >

2
) + lim
n
4V (T
n
)

2
= 0.
Portanto, {T
n
} consistente.
Se T
n
for um estimador no-viesado, ento obviamente lim
n
E(T
n
) = , e portanto se
a varincia do estimador T
n
tender a zero, ele um estimador consistente.
Exemplo 12.3.7: Foi visto que S
2
um estimador no-viesado para
2
. possvel
demonstrar no caso em que a populao tem distribuio normal com mdia e varincia

2
que
V (S
2
) =
2
4
n 1
.
Logo, S
2
consistente para
2
.
Exemplo 12.3.8: Como
2
=
n1
n
S
2
, ento E(
2
) =
n1
n

2

2
quando n ,
e V (
2
) = (
n1
n
)
2 2
4
n1
0 quando n . Logo, pelo teorema anterior,
2
tambm
consistente para
2
.
Um outro critrio para comparao de estimadores o seguinte:
Denio 12.3.9: Se T e T

so dois estimadores no-viesados de um mesmo parmetro


, e V (T) < V (T

), ento T mais eciente que T

.
Exemplo 12.3.10: Considere uma populao normal, X, com parmetros e
2
. O
objetivo estimar a mediana desta populao. Como a distribuio simtrica a mediana e
a mdia coincidem e so iguais a . Denindo X e md, respectivamente, como a mdia e a
mediana de uma amostra de tamanho n dessa populao, qual dos dois estimadores mais
eciente para estimar a mediana populacional?
Sabe-se que X N(,
2
/n) e demonstra-se que a distribuio da mediana pode ser
aproximada por N(Md(X),

2
2n
), onde Md a mediana da populao. Portanto, os dois
estimadores so no-viesados, mas X mais eciente, pois V (md) > V (X). Conclui-se
que, para estimar a mediana dessa populao, prefervel usar a mdia da amostra como
estimador.
Finalmente, pode-se considerar o critrio do erro quadrtico mdio para comparar esti-
madores.
Denio 12.3.11: Denomina-se erro amostral de um estimador T para um parmetro
a diferena e = T .
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 221
O erro amostral uma varivel aleatria pois uma funo de T que varivel aleatria;
alm disso, o vis de T igual a esperana do erro amostral.
Denio 12.3.12: O erro quadrtico mdio (EQM) do estimador T para o parmetro
igual ao segundo momento do erro amostral com respeito a distribuio amostral do
estimador T, ou seja,
EQM(T, ) = E(e
2
) = E(T )
2
.
A expresso do EQM pode ser desenvolvida para:
EQM(T, ) = E(T E(T) + E(T) )
2
= E(T E(T))
2
+ 2E[(T E(T))(E(T) )] + E(E(T) )
2
= V (T) + V
2
.
Ento, o erro quadrtico mdio leva em considerao tanto o vis V do estimador como
sua variabilidade medida atravs de V (T). Segundo este critrio, o estimador to melhor
quanto menor for seu erro quadrtico mdio.
Exemplo 12.3.13: Determinar o erro quadrtico mdio do estimador X para .
Soluo: Neste caso,
E(X )
2
= V (X) =

2
n
.
12.4 Intervalos de Conana
At agora os estimadores apresentados foram pontuais, isto , especicam uma nica, estima-
tiva valor para o estimador. Esse procedimento no permite julgar qual a possvel magnitude
do erro que est sendo cometido. Por que no buscar um mtodo para construir intervalos de
nmeros reais que contenham o estimador? Esses intervalos so os denominados intervalos
de conana e so baseados na distribuio amostral do estimador.
Um intervalo de conana para um parmetro populacional desconhecido um intervalo
da forma (L, U), em que os pontos extremos do intervalo L e U dependem da amostra, e
portanto so, na verdade, estatsticas, isto variveis aleatrias. O objetivo ao se construir
intervalos de conana determinar funes da amostra L e U tal que a seguinte armao
seja verdadeira:
P(L U) = ,
onde 0 < < 1. Assim, existe uma probabilidade de se selecionar uma amostra tal que o
intervalo (L, U) contenha o valor de . Note que no aleatrio, L e U que so aleatrios.
Se a armao acima for verdadeira o que est sendo dito que se forem construdos vrios
intervalos de conana usando as estimativas L e U, em 100% das vezes estar incluso
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 222
no intervalo [L, U]. Tal intervalo chamado de um intervalo de 100% de conana para ,
e conhecido como coeciente (ou nvel) de conana do intervalo.
Na prtica, obtm-se uma amostra aleatria e calcula-se um intervalo de conana; duas
situaes podem ocorrer: ele contm ou no o verdadeiro valor de . Neste ponto, no
existe mais qualquer valor aleatrio, portanto no faz sentido associar uma probabilidade
de que o intervalo contenha o verdadeiro valor . A armao apropriada : o intervalo
observado (l, u) contm o verdadeiro valor , com 100% de conana. Esta armao tem
uma interpretao frequentista, ou seja, no se sabe se a armao ou no verdadeira
para esta amostra especca, mas o mtodo usado para obter o intervalo (l, u) resulta em
armaes corretas em 100% das vezes.
Quanto maior o intervalo de conana, mais conana se tem que ele contenha o verda-
deiro valor . Por outro lado, quanto maior for o intervalo, menos informao a respeito do
verdadeiro valor de . Em uma situao ideal, obtm-se um intervalo relativamente pequeno
com alta conana.
O intervalo de conana descrito acima um intervalo de conana bilateral, pois so
especicados tanto o limite inferior quanto o superior do intervalo. Pode-se tambm obter
um intervalo de conana unilateral inferior para com nvel de conana , escolhendo um
limite inferior L de tal forma que
P(L ) = .
Analogamente, um intervalo de conana unilateral superior para com nvel de conana
, pode ser obtido escolhendo um limite superior U tal que
P( U) = .
12.4.1 Intervalo de Conana para a Mdia Populacional () com
Varincia Populacional (
2
) Conhecida
Pelo Teorema Central do Limite, a distribuio amostral de X aproximadamente normal
com mdia e varincia
2
/n, desde que n seja sucientemente grande (n 30). Neste
caso,
Z =

n(X )

tem uma distribuio normal padro. Seja


1
() o valor tal que P(Z
1
()) = .
Ento, para w qualquer:
P(
1
(w) Z
1
(w)) = P(Z
1
(w)) P(Z
1
(w)) = w(1w) = 2w1.
Deste modo, usando-se este resultado,
P(
1
(( + 1)/2) Z =

n(X )


1
(( + 1)/2)) = .
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 223
Rearrumando as desigualdades,
P(X
1
(( + 1)/2)/

n X +
1
(( + 1)/2)/

n) = .
Deste modo,
(X
1
(( + 1)/2)/

n, X +
1
(( + 1)/2)/

n)
um intervalo com 100% de conana para . A amplitude deste intervalo
r = 2
1
(( + 1)/2)/

n,
que uma constante que independe de X. Com esta frmula, dado uma amplitude desejada
r, possvel determinar o tamanho da amostra necessrio para atingir um nvel de conana
desejado em um intervalo com amplitude L. O intervalo acima usado quando a amostra
proveniente de uma populao normal ou para amostras de tamanho n 30, independente
da forma da populao.
Pode-se tambm obter intervalos de conana unilaterais para , pois sabe-se que
P(Z =

n(X )


1
()) = .
Rearrumando a desigualdade:
P( X +
1
()/

n) = .
Deste modo,
(, X +
1
()/

n)
um intervalo unilateral superior com 100% de conana para . Analogamente,
(X
1
()/

n, )
um intervalo unilateral inferior com 100% de conana para .
12.4.2 Intervalo de Conana para Mdia Populaional () com Va-
rincia Populacional (
2
) Desconhecida
Quando o objetivo construir intervalos de conana para a mdia de uma populao
quando
2
for desconhecida, devido ao Teorema Central do Limite, pode-se continuar usando
os procedimentos da seo anterior, desde que o tamanho da amostra seja grande (n 30),
e que se adote s
2
como estimativa para
2
. Entretanto, quando a amostra for pequena e

2
desconhecida, tem de se fazer uma suposio sobre a forma da distribuio em estudo.
Assume-se geralmente que a populao tem uma distribuio normal. Na prtica, muitas
populaes podem ter suas distribuies aproximadas por uma normal, assim esta suposio
no to restritiva e o mtodo apresentado tem larga aplicabilidade.
Pode-se provar que se a populao tem uma distribuio normal, ento T =

n(X)
S
tem
uma distribuio t de Student com n1 graus de liberdade. Seja (, n1) o valor tal que
P(T (, n 1)) = . Utilizando o mesmo procedimento da seo anterior,
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 224
(i)
(X (( + 1)/2, n 1)s/

n, X + (( + 1)/2, n 1)s/

n)
um intervalo de conana bilateral com 100% de conana para a mdia da populao
.
(ii)
(, X + (, n 1)s/

n)
um intervalo unilateral superior com 100% de conana para .
(iii)
(X (, n 1)s/

n, )
um intervalo unilateral inferior com 100% de conana para .
Os resultados abaixo sumarizam os intervalos de conana mais usados em problemas
prticos. O fundamento para a construo dos intervalos de conana a seguir que tem-
se uma populao, representada pela varivel aleatria X, a qual se distribui normalmente
com mdia
X
e varincia
2
X
, isto , X N(
X
,
2
X
), e desta populao foi retirada uma
amostra aleatria (X
1
, X
2
, . . . , X
n
).
(i) Para a Mdia (
X
), com Varincia (
2
X
) conhecida
(X z

X

n
, X + z

X

n
),
P(N(0, 1) z) =

2
,
X =
1
n
n

i=1
X
i
.
(ii) Para a Mdia (
X
), com Varincia (
2
X
) desconhecida
(X t
S
X

n
, X + t
S
X

n
),
P(t
n1
t) =

2
,
S
2
X
=
1
n 1
n

i=1
(X
i
X)
2
.
(iv) Para a Diferena de Mdias (
X

Y
), com Varincias (
2
X
,
2
Y
) conhecidas
X Y N(
X

Y
,

2
X
n
+

2
Y
n
).
((X Y ) z

m
2
X
n
2
Y
, (X Y ) + z

m
2
X
n
2
Y
).
P(N(0, 1) z) = 1

2
.
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 225
(v) Para o Quociente de Varincias (
sigma
2
X

2
Y
)
X N(
X
,
2
X
); Y N(
Y
,
2
Y
)

X
,
2
X
,
Y
,
2
Y
desconhecidos
(X
1
, . . . , X
n
); (Y
1
, . . . , Y
m
)
(n 1)S
2
X

2
X

2
n1
.
(m1)S
2
Y

2
Y

2
m1
.
Logo,
S
2
X

2
X
S
2
Y

2
Y
F
n1,m1
.
P(a < F
n1,m1
< b) = 1

2
X

2
Y
(
S
2
X
bS
2
Y
;
S
2
X
aS
2
Y
),
a = F
n1,m1,

2
; b = F
n1,m1,1

2
.
(vi) Para a Diferena de Mdias com Varincias desconhecidas, mas iguais
S
2
=
S
2
X
n
+
S
2
Y
m
S = +
_
S
2
X
n
+
S
2
Y
m
.
(X tS, X + tS),
P(t
n+m2
t) =

2
.
(vii) Para a Proporo (p)
p =
X
n
n
.
( p z
_
p(1 p)
n
, p + z
_
p(1 p)
n
).
P(N(0, 1) z) =

2
.
Exemplo 12.4.1: Seja uma populao com distribuio Bernoulli de parmetro p. Por
exemplo, p pode representar a probabilidade de um tipo de capacitor ser produzido com
defeito por uma determinada fbrica. Dada uma amostra aleatria (X
1
, X
2
, . . . , X
n
) de ta-
manho n da produo de capacitores desta fbrica, pode-se estimar um intervalo de conana
bilateral para p. A varincia da populao dada por p(1p). Portanto, sendo p a proporo
de capacitores com defeito na amostra, como
2
= p(1 p), ento
( p
1
(( + 1)/2)
_
p(1 p)
n
, p +
1
(( + 1)/2)
_
p(1 p)
n
)
um intervalo com 100% de conana para p. Como p no conhecido, tem-se dois
possveis procedimentos para se obter seu valor:
Campos & Rgo
12.4. INTERVALOS DE CONFIANA 226
(i) utilizar o fato de que p(1 p) 1/4, obtendo o intervalo
( p
1
(( + 1)/2)
_
1
4n
, p +
1
(( + 1)/2)
_
1
4n
),
(ii) usar p como estimativa para p, obtendo o intervalo
( p
1
(( + 1)/2)
_
p(1 p)
n
, p +
1
(( + 1)/2)
_
p(1 p)
n
).
O primeiro mtodo sempre correto, porm muito conservador pois, em geral, p(1 p)
pode ser bem menor que 1/4, e ento o intervalo proposto tem amplitude maior que a
necessria. O segundo mtodo vlido desde que np e n(1 p) sejam maiores que 5, pois,
caso contrrio, a distribuio normal no mais poder ser usada sendo necessrio utilizar a
binomial.
Exemplo 12.4.2: O comprimento dos eixos produzidos por uma empresa tem aproxi-
madamente uma distribuio normal com desvio padro 4cm. Uma amostra com 16 eixos
forneceu uma mdia de 4.52cm. bach
(a) Determine um intervalo de conana de 90% para o verdadeiro comprimento mdio dos
eixos.
(b) Com que probabilidade arma-se que o comprimento mdio desta amostra no difere
da mdia por mais de 0.5cm?
Soluo: O intervalo de conana dado por:
(4.52
1
(0.95)
4

16
, 4.52 +
1
(0.95)
4

16
] = [2.875, 6.165).
Para o item (b), como /

n = 1, ento X tem distribuio normal padro, logo


P(|X | 0.5) = P(|Z| 0.5) = 0.383.
Exemplo 12.4.3: Uma amostra de 400 domiclios mostra que 25% deles so alugados.
Qual o intervalo de conana para o (verdadeiro) nmero de casas alugadas numa cidade,
supondo que ela tem 20000 casas? Considere um coeciente de conana de 98%.
Soluo: Inicialmente, determinando o intervalo de conana para a proporo de casas
alugadas. Neste caso, p = 0.25, n = 400, e = 0.98. Utilizando p(1 p) como uma
estimativa para a varincia p(1 p), o intervalo de conana para a populao :
(0.25
1
(0.99)
_
0.25(0.75)
400
, 0.25 +
1
(0.99)
_
0.25(0.75)
400
).
Ento, o intervalo de conana para o nmero de casas alugadas dado por:
(20000(0.25
1
(0.99)
_
0.25(0.75)
400
), 20000(0,25 +
1
(0.99)
_
0.25(0.75)
400
))
Campos & Rgo
12.5. TESTE DE HIPTESES 227
= (5000 1006.75, 5000 + 1006.75)
= (3993.25, 6006.75).
Exemplo 12.4.4: Uma pesquisa sobre renda familiar foi realizada entre as famlias que
tm rendimento de at 5 salrios mnimos. Sabe-se que o desvio padro populacional 1.2.
Uma amostra de 200 famlias foi selecionada e seus resultados aparecem na tabela abaixo:
Rendimento Frequncia
1 90
2 50
3 30
4 20
5 10
(a) Estime, com 95% de conabilidade, o intervalo de conana para a mdia de renda
familiar desta populao.
(b) Estime a verdadeira proporo de famlias que tm rendimento de at 2 salrios mnimos,
com 95% de conabilidade.
Soluo: Determinando inicialmente o valor de x.
x = 1(90/200) + 2(50/200) + 3(30/200) + 4(20/200) + 5(10/200) = 2.05.
Ento, o intervalo de conana de 95% dado por:
(2.05
1
(0.975)
1.2

200
, 2.05 +
1
(0.975)
1.2

200
) = (1.884, 2.216).
Para o item (b), tem-se que p = 140/200 = 0.7. Usando p(1 p) como estimativa para
a varincia populacional, o intervalo de conana de 95% para proporo populacional :
(0.7
1
(0.975)
_
0.7(0.3)
200
, 0.7 +
1
(0.975)
_
0.7(0.3)
200
) = (0.636, 0.764).
12.5 Teste de Hipteses
Na seo anterior foi estudado o problema de se estimar um parmetro de uma populao
atravs de uma amostra selecionada desta populao. Em muitas situaes prticas o inte-
resse no estimar o parmetro, mas aceitar ou rejeitar uma armao a seu respeito. Tal
armao conhecida como hiptese e o mtodo utilizado para decidir aceitar ou rejeitar
uma dada hiptese a partir de dados amostrais como Teste de Hiptese. A idia central
deste procedimento assumir que a hiptese verdadeira e vericar se a amostra observada
parece razovel ou consistente, dada esta suposio.
Campos & Rgo
12.5. TESTE DE HIPTESES 228
Denio 12.5.1: Uma hiptese estatstica uma armao sobre os parmetros de uma
ou mais populaes.
Como distribuies de probabilidade so usadas para representar populaes, uma hi-
ptese estatstica pode tambm ser pensada como uma armao acerca da distribuio de
probabilidades de uma varivel aleatria.
Por exemplo, suponha que o interesse seja vericar a tenso em uma dada tomada. A
tenso na tomada sofre alteraes ao longo do dia e pode assim ser descrita por uma varivel
aleatria. Suponha que o interesse seja no valor esperado desta distribuio, ou seja, decidir
se a tenso ou no igual a 220v. Ento, = 220v chamada de hiptese nula, representada
por H
0
. Esta hiptese nula pode ser aceita ou rejeitada; no caso de ser rejeitada, precisa-se
de uma outra hiptese que seja aceitvel, conhecida como hiptese alternativa, representada
por H
1
. Por exemplo, uma hiptese alternativa seria = 200v. Neste caso, como a hiptese
alternativa especica valores de maiores ou menores que o valor especicado por H
0
, ela
chamada de hiptese alternativa bilateral. Em algumas situaes pode-se desejar formular
uma hiptese alternativa unilateral, como em H
0
: = 220v e H
1
: < 220v, H
0
: = 220v
e H
1
: > 220v, ou H
0
: = 220v e H
1
: = 240v.
Ento, a hiptese nula uma armao a respeito da populao, mais especicamente
uma armao a respeito de um parmetro da populao. Esta armao pode ter sido
originada de conhecimento a priori da populao em estudo, de testes ou experimentos
anteriores; pode ter sido determinada de alguma teoria ou modelo da populao em estudo;
ou pode surgir de consideraes exgenas, por exemplo, parmetros que devem obedecer
certos critrios de controle de qualidade.
Estabelecidas as hipteses nulas e alternativas, a informao contida na amostra anali-
sada para vericar se a hiptese nula consistente com esta informao. Caso seja, conclui-se
que a hiptese nula verdadeira, caso contrrio, conclui-se que a hiptese falsa, o que im-
plicar na aceitao da hiptese alternativa. Porm, para se saber com certeza se a hiptese
nula ou no verdadeira, seria necessrio analisar toda a populao, o que na prtica
frequententemente impossvel. Portanto, todo procedimento de testes de hipteses tem de
ter alguma probabilidade de erro associada, uma vez que fundamentado numa amostra de
tamanho n.
Para ilustrar, considere o exemplo descrito anteriormente, ou seja, H
0
: = 220v e
H
1
: = 240v. Suponha que n medidas na tenso da tomada sejam feitas e que a mdia
dos valores obtidos nesta amostra x seja observada. Como visto, x uma estimativa para o
valor de , logo se for obtido um valor de x prximo a 220v, tem-se uma evidncia de que a
hiptese nula verdadeira. Precisa-se ento estabelecer uma regioo de valores, conhecida
como regio de aceitao tal que se x cair nesta regio a hiptese nula aceita, e se x cair fora
dessa regio, ou seja, na regio conhecida como regio crtica (RC), a hiptese alternativa
aceita. Por exemplo, pode-se considerar a regio de aceitao como sendo o intervalo
(, 230]. Os limites da regio de aceitao so chamados de valores crticos.
Esse procedimento de deciso acarreta um de dois tipos de erros diferentes. O primeiro,
conhecido como erro tipo I ocorre quando a tenso mdia na tomada realmente 220v, mas
por chance o conjunto de medidas aleatrios obtido forneceu um valor de x na regio crtica.
Ou seja, um erro do tipo I ocorre quando a hiptese nula rejeitada quando na verdade ela
Campos & Rgo
12.5. TESTE DE HIPTESES 229
verdadeira. O segundo, conhecido como erro do tipo II ocorre quando apesar da hiptese
nula ser falsa, a mdia das medidas de tenso obtidas cai na regio de aceitao. Ou seja,
um erro do tipo II ocorre sempre que a hiptese nula for aceita mesmo sendo falsa.
A probabilidade de ocorrncia de um erro tipo I chamada de nvel de signicncia,
tamanho do teste, ou ainda, p-valor do teste, e denotada por . O poder de um teste
igual a probabilidade de se rejeitar a hiptese nula quando ela realmente falsa. Note que
o poder do teste igual a 1 menos a probabilidade de ocorrncia de um erro do tipo II, que
usualmente denotada por .
Quando H
0
for verdadeira, isto , a tenso for realmente de 220v, pelo TCL sabe-se que
X N(220,

2
n
). Ento, o nvel de signicncia do teste determinado por:
= P(erro I) = P(X > 230|X N(220,

2
n
))
= P(

n(X 220)

>

n(230 220)

)
Se a varincia da tenso na tomada 64v
2
, com uma amostra de 4 medidas do valor de
tenso obtm-se:
= P(Z >
2(10)
8
) = P(Z > 2.5) = 0.0062.
De modo anlogo, obtm-se a probabilidade do erro tipo II. Se H
1
for verdadeira,
X N(240, 16), ento:
= P(erro II) = P(X 230|X N(240, 16))
= P(
(X 240)
4

(230 240)
4
) = P(Z 2.5) = 0.0062.
Neste caso, e foram iguais devido a simetria da regio crtica em relao s hipteses
nula e alternativa. Se ao invs do valor crtico ser 230, fosse maior, ento diminuiria e
aumentaria.
Tambm seria possvel especicar um valor para a probabilidade de erro do tipo I e
vericar qual seria a regio crtica que satisfaria esta probabilidade de erro pre-especicada.
Por exemplo, suponha que se queira encontrar a regio crtica cujo seja igual a 0.01. Ento:
0.01 = = P(Z > 2.325) = P(
2(X 220)
8
> 2.325) = P(X > 229.3).
Para a regio crtica (229.3, ), o valor de :
= P(erro II) = P(X 229.3|X N(240, 16))
= P(
(X 240)
4

(229.3 240)
4
) = P(Z 2.675) = 0.0038.
Campos & Rgo
12.5. TESTE DE HIPTESES 230
Este segundo tipo de procedimento bastante utilizado, pois em geral a hiptese alter-
nativa no contm apenas um nico valor de parmetro como no exemplo acima. Muitas
vezes, se a hiptese nula H
0
: = 220v, a hiptese alternativa ser H
1
: = 220v. Como
os parmetros da hiptese alternativa so muitos, a soluo adotar o ltimo procedimento
descrito acima, ou seja, pre-estabelecer um valor , e calcular uma regio crtica que satisfaa
esta restrio. No caso de uma hiptese alternativa bilateral, em geral toma-se como regio
de aceitao um intervalo simtrico ao redor da hiptese nula, deste modo xando = 0.01,
0.01 = = P(|Z| > 2.575) = P(|
2(X 220)
8
| > 2.575) = 1 P(209.7 X 230.3).
Portanto, a regio de aceitao (209.7, 230.3) foi determinada de modo que o nvel de signi-
cncia de 0.01 fosse satisfeito. Mesmo determinada esta regra de deciso, no determina-se
, pois no existe um nico valor de na hiptese alternativa. Neste caso, considera-se uma
funo (), conhecida como funo caracterstica de operao.
Denio 12.5.2: A funo caracterstica de operao (funo CO) de um teste de hiptese
denida por:
() = P(aceitar H
0
|).
Isto , () a probabilidade de aceitar H
0
como funo de .
Denio 12.5.3: A funo poder do teste, dada por () = 1 ().
Portanto, esta funo a probabilidade de se rejeitar H
0
como funo de . As seguintes
propriedades de () so facilmente vericadas:
(i) (
0
) = ;
(ii) No caso de hiptese alternativa bilateral (H
1
: =
0
), () = (+) = 1 e ()
decresce para <
0
e cresce para >
0
;
(iii) No caso de hiptese alternativa unilateral superior (H
1
: >
0
), () = 0,
(+) = 1, e () sempre crescente;
(iv) No caso de hiptese alternativa unilateral inferior (H
1
: <
0
), () = 1, (+) =
0, e () sempre decrescente.
Na denio das hipteses, sempre estabelece-se a hiptese nula como uma igualdade, de
modo que o analista pode controlar , ao estabelecer uma regio crtica para o teste. Assim, o
analista pode controlar diretamente a probabilidade de rejeitar erroneamente H
0
, implicando
que a rejeio da hiptese nula uma concluso forte. Note que quanto menor o valor de ,
quando a hiptese nula rejeitada, mais provvel a hiptese alternativa, portanto maior
ser a signicncia da concluso. Por isso, chamado de nvel de signicncia do teste.
Por outro lado, no constante, mas depende do verdadeiro valor do parmetro, por este
motivo a aceitao de H
0
tida como uma concluso fraca, a no ser que saiba-se que
aceitavelmente pequena. Ento, a nomenclatura mais correta seria ao invs de se dizer H
0
Campos & Rgo
12.5. TESTE DE HIPTESES 231
aceita deveria ser dito a amostra no apresentou evidncia suciente para se rejeitar H
0
.
Neste ltimo caso, no necessariamente arma-se que existe uma alta probabilidade de que
H
0
seja verdadeira, isto pode signicar apenas que mais dados so necessrios para que uma
concluso tomada esteja mais prxima da realidade.
Na determinao de quem a hiptese nula, deve-se adotar como H
0
aquela hiptese,
que se rejeitada erroneamente, conduza a um erro mais importante de se evitar, pois esta
probabilidade de erro controlvel. Ento, por exemplo, se o interesse saber se um novo
medicamento ecaz no combate a uma doena, a hiptese nula seria que ele no ecaz,
pois os danos causados por ser usado um remdio no ecaz so maiores que se um remdio
que seria ecaz no fosse usado. Ou ainda, se se deseja saber se certa substncia radioativa,
ento a hiptese nula seria que ela radioativa, pois os danos causados pela manipulao
radioativa so maiores que se uma substncia no fossse manipulada por se achar falsamente
que ela radioativa. Como a rejeio da hiptese nula que uma concluso forte, escolhe-se
como H
1
a hiptese que se deseja comprovar. Por exemplo, no caso do novo medicamento
H
1
ser a hiptese que o novo medicamento melhor que os existentes.
12.5.1 Procedimento para realizar um Teste de Hiptese
Segue-se uma sequncia de passos para a realizao de qualquer teste de hiptese:
(i) A partir do contexto do problema, identique o parmetro de interesse.
(ii) Fixe qual a hiptese nula H
0
e alternativa H
1
.
(iii) Use teoria estatstica e informaes disponveis para decidir que estimador ser usado
para testar H
0
.
(iv) Obtenha a distribuio do estimador proposto.
(v) Determine .
(vi) Construa a regio crtica para o teste de modo que seja satisfeita.
(vii) Use os dados da amostra para determinar o valor do estimador, ou seja, uma estimativa
para o parmetro.
(viii) Se o valor do estimador pertencer a regio crtica, rejeite H
0
. Caso contrrio, reporte
que no existe evidncia suciente para se rejeitar H
0
.
12.5.2 Teste de Hiptese para a Mdia de uma Populao Normal
com Varincia Conhecida
Deseja-se testar as hipteses H
0
: =
0
e H
1
: =
0
, sendo
0
uma constante especicada.
Para testar a hiptese nula, usa-se o estimador mdia amostral de uma amostra aleatria
simples de tamanho n. Deste modo, se a hiptese nula for verdadeira, pelo TCL, X
N(
0
,
2
/n) e ento procede-se como anteriormente.
A estatstica padronizada Z
0
=
X
0
/

n
tem uma distribuio normal padro, se a hiptese
nula for verdadeira. Portanto, para a regio de aceitao
(
1
(1 /2),
1
(1 /2)),
Campos & Rgo
12.5. TESTE DE HIPTESES 232
tem-se que P(Z
0
RC| =
0
) = .
mais fcil entender a regio crtica e o procedimento do teste quando a estatstica de
teste Z
0
e no X. Entretanto, a mesma regio crtica pode ser calculada em termos do
valor da estatstica X. Neste caso, a regio de aceitao
(
0

1
(1 /2)

n
,
0
+
1
(1 /2)

n
).
De modo similar, obtm-se a regio crtica para o caso de um teste de hiptese unilateral
H
0
: =
0
e H
1
: >
0
, ou H
0
: =
0
e H
1
: <
0
. No primeiro caso, a regio de
aceitao para a estatstica Z
0

(,
1
(1 )),
o que implica que a regio de aceitao para a estatstica X
(,
0
+
1
(1 )

n
).
No segundo caso, a regio para a estatstica Z
0

(
1
(), ),
o que implica que a regio de aceitao para a estatstica X
(
0
+
1
()

n
, ).
12.5.3 Teste para a Proporo
O teste para proporo um caso particular do caso do teste para a mdia com varincia
conhecida. Cada amostra pode ser considerada como uma varivel Bernoulli com parmetro
p que representa a proporo de indivduos da populao que possuem uma determinada
caracterstica. Sabe-se que a mdia de uma Bernoulli igual ao seu parmetro p e que sua
varincia igual a p(1 p). Logo, utilizando a proporo amostral como estatstica e os
resultados gerais da seo anterior, a regio de aceitao para a proporo
(i) No caso de hiptese alternativa bilateral: H
0
: p = p
0
e H
1
: p = p
0
, a regio de aceitao

(p
0

1
(1 /2)
_
p
0
(1 p
0
)
n
, p
0
+
1
(1 /2)
_
p
0
(1 p
0
)
n
).
(ii) No caso de hiptese alternativa unilateral superior: H
0
: p = p
0
e H
1
: p > p
0
, a regio
de aceitao
(, p
0
+
1
(1 )
_
p
0
(1 p
0
)
n
).
Campos & Rgo
12.5. TESTE DE HIPTESES 233
(iii) No caso de hiptese alternativa unilateral inferior: H
0
: p = p
0
e H
1
: p < p
0
, a regio
de aceitao
(p
0
+
1
()
_
p
0
(1 p
0
)
n
, ).
Exemplo 12.5.4: Um relatrio arma que 40% de toda gua obtida atravs de poos arte-
sianos salobra. Existem controvrsias sobre esta armao, alguns dizem que a proporo
maior outros que menor. Para acabar com a dvida, sorteou-se 400 poos e observou-se
que em 120 deles a gua era salobra. Qual deve ser a concluso ao nvel de signicncia de
3%?
Soluo: Neste caso, H
0
: p = 0.4 contra uma hiptese alternativa bilateral H
1
: p = 0.4.
Logo, a regio de aceitao dada por:
(0.4
1
(0.985)
_
(0.4)(0.6)
400
, 0.4 +
1
(0.985)
_
(0.4)(0.6)
400
) = (0.4 0.053, 0,4 + 0.053)
= (0.347, 0.453).
Como p = 120/400 = 0.3, rejeita-se a hiptese nula ao nvel de conana de 3%.
Exemplo 12.5.5: O governo arma que a taxa de desemprego da populao economi-
camente ativa de no mximo 15% Uma amostra aleatria de 1500 pessoas revelou que
1300 destas esto empregadas. Para um nvel de signicncia de 5%, pode-se dizer que a
armao est correta?
Soluo: Neste caso, a hiptese nula H
0
: p = 0.15 contra a alternativa H
1
: p < 0.15.
Logo, a regio de aceitao dada por:
(0.15 +
1
(0.05)
_
(0.15)(0.85)
1500
, ) = (0.135, +).
Como p = 200/1500 = 0.133, rejeita-se a hiptese nula ao nvel de conana de 5%, e
portanto a armao estava correta.
12.5.4 Testes para Amostras Grandes
Quando n 30 a varincia da amostra s
2
prxima de
2
, assim s pode ser usado no lugar
de nos procedimentos anteriores. Deste modo, o teste para a mdia de uma populao
com varincia conhecida pode ser utilizado, no caso de n 30, para testar a mdia de uma
populao com varincia desconhecida. O tratamento exato no caso em que
2
desconhecida
e a amostra pequena envolve o uso da distribuio t de Student e ser estudado a seguir.
12.5.5 Teste para a Mdia de uma Populao Normal com Varin-
cia Desconhecida
Assim como no caso de intervalos de conana, quando a amostra for pequena e
2
desconhe-
cida, uma suposio sobre a forma da distribuio em estudo tem de ser feita. Assume-se que
Campos & Rgo
12.5. TESTE DE HIPTESES 234
a populao tem uma distribuio normal e portanto T =

n(X)
S
tem uma distribuio t de
Student com n1 graus de liberdade. Seja (, n1) o valor tal que P(T (, n1)) = .
Ento, utilizando um procedimento similar ao caso de varincia conhecida, se a estatstica
utilizada for a mdia amostral X,
(i) No caso de hiptese alternativa bilateral: H
0
: =
0
e H
1
: =
0
, a regio de
aceitao
(
0
(1 /2, n 1)
S

n
,
0
+ (1 /2, n 1)
S

n
).
(ii) No caso de hiptese alternativa unilateral superior: H
0
: =
0
e H
1
: >
0
, a regio
de aceitao
(,
0
+ (1 , n 1)
S

n
).
(iii) No caso de hiptese alternativa unilateral inferior: H
0
: =
0
e H
1
: <
0
, a regio
de aceitao
(
0
+ (, n 1)
S

n
, ).
Exemplo 12.5.6: O McDonalds pretende instalar uma nova lanchonete em certo local se
nele transitarem no mnimo 200 carros por hora durante determinados perodos do dia. Para
20 horas selecionadas aleatoriamente durante tais perdodos, o nmero mdio de carros que
transitou pelo lugar foi de 208.5 com desvio padro de 30.0. O gerente assume a hiptese
de que o volume de carro no satisfaz a exigncia de 200 ou mais carros por hora. Para um
nvel de signicncia de 5% esta hiptese pode ser rejeitada?
Soluo: A hiptese nula dada por H
0
: = 200 e a alternativa, H
1
: > 200. Como a
amostra pequena (n < 30))eavarinciadapopulaodesconhecida, deveseusarotestetdeStudentunilateral
(, 200 +(0.95, 19)
30

20
) = (, 200 + 1.729
30

20
) = (, 211.6).
Portanto, a hiptese no pode ser rejeitada a este nvel de conana.
Exemplo 12.5.7: Num estudo sobre a resistncia de um dado material, com distribuio
normal, foi coletada uma amostra de 25 unidades, resultando num valor mdio de 230.4kg
e desvio-padro de 100kg. O estudo para saber se essa amostra suciente para garantir
ao nvel de signicncia de 5% que a resistncia mdia do material seja superior a 200kg.
Qual a sua concluso?
Soluo: O estudo quer realizar o seguinte teste: H
0
: = 200 contra H
1
: > 200. Como
a varincia desconhecida e a amostra menor que 30, usa-se o teste t de Student. A regio
de aceitao
Campos & Rgo
12.5. TESTE DE HIPTESES 235
(, 200 +(0.95, 24)
100

25
) = (, 234.2).
Logo, a amostra no grande o suciente para se garantir que a resistncia mdia maior
que 200 ao nvel de signicncia de 5%.
12.5.6 Probabilidade de Signicncia
O procedimento do testes de hipteses descrito at agora parte de pr-estabelecimento de
um valor para . Deste modo, como a escolha de arbitrria pode acontecer que para
um determinado valor de a hiptese nula seja rejeitada, porm para um valor menor de
ela no seja rejeitada. Alm disso, no procedimento descrito, se a estimativa do parmetro
caa na regio crtica a hiptese nula era rejeitada sem nenhuma informao a respeito de
quo prxima essa estimativa estava da regio de aceitao. Uma maneira alternativa para
que tais problemas sejam evitados consiste em apresentar a probabilidade de signicncia,
nvel descritivo, ou p-valor do teste. Os passos so muito parecidos, s que ao invs de
se construir a regio crtica, apresenta-se o valor da probabilidade de ocorrerem valores da
estatstica mais extremos que o observado quando a hiptese nula verdadeira. O p-valor
tambm pode ser denido como o menor nvel de signicncia que conduz a rejeio da
hiptese nula com os dados observados.
Suponha que o interesse seja um teste para a mdia de uma populao com varincia
conhecida (ou ento varincia desconhecida, mas amostra grande). Seja x
0
a mdia amostral
observada na amostra. Para um teste bilateral H
0
: =
0
e H
1
: =
0
, tem-se
p = P(|X
0
| > |x
0

0
|) = P(

n|X
0
|

>

n|x
0

0
|

)
= P(|Z| >

n|x
0

0
|

) = 2(1 (

n|x
0

0
|

)).
Similarmente, para um teste unilateral superior H
0
: =
0
e H
1
: >
0
:
p = P(X > x
0
) = P(

n(X
0
)

>

n(x
0

0
)

)
= P(Z >

n(x
0

0
)

) = 1 (

n(x
0

0
)

).
Finalmente, para um teste unilateral inferior H
0
: =
0
e H
1
: <
0
:
p = P(X < x
0
) = P(

n(X
0
)

<

n(x
0

0
)

)
= P(Z <

n(x
0

0
)

) = (

n|x
0

0
|

).
Campos & Rgo
12.5. TESTE DE HIPTESES 236
Exemplo 12.5.8: Suponha novamente a situao anterior onde deseja-se testar a hiptese
nula H
0
: = 220v versus H
1
: = 220v, com uma amostra de tamanho 4 e sabe-se que a
varincia igual a 64v
2
. Suponha ainda que a mdia amostral foi igual a 227v. O p-valor
pode ser calculado por:
p = 2(1 (

4|227 220|

64
)) = 2(1 (
7
4
)) = 2(1 0.9599) = 0.0802.
Portanto, a probabilidade de quando a hiptese nula verdadeira uma amostra selecio-
nada de tamanho 4 tenha mdia amostral mais distante de 220v que 227v igual a 0.0802,
ou ainda, a um nvel de signicncia de 10% a hiptese nula seria rejeitada, mas a um nvel
de signicncia de 5% a hiptese nula no pode ser rejeitada.
A hiptese H
0
ser rejeitada se o p-valor for bastante pequeno. A tabela a seguir ilustra
a escala de evidncias de Fisher contra a hiptese H
0
:
p-valor 0.1 0.05 0.025 0.001 0.005 0.001
Natureza da
Evidncia marginal moderada substancial forte muito forte fortssima
12.5.7 Signicncia Estatstica versus Signicncia Prtica
Quando o procedimento de um teste de hiptese aplicado na prtica, necessrio, alm
de se considerar a signicncia estatstica medida pelo p-valor, analisar quais diferenas
entre valores dos parmetros tm implicaes prticas. Isto , pode acontecer que o p-valor
seja pequeno levando ento a rejeio da hiptese H
0
, mas que o desvio real entre o valor
do parmetro na hiptese nula e a estimativa do parmetro obtida na amostra no tenha
signicncia prtica. Isto pode ocorrer para tamanhos de amostras grandes. Por exemplo,
para uma amostra de 1600 medidas e mdia amostral de 220.5v o p-valor bilateral
p = 2(1 (

1600(|220.5 220|)

64
)) = 2(1 (20/8)) = 0.0124.
Portanto, existe uma evidncia estatstica substancial para se rejeitar H
0
. Contudo,
do ponto de vista prtico, se a mdia for realmente for 220.5v no haver efeito prtico
observvel no desempenho de qualquer equipamento eltrico. Logo, esta diferena detectada
pelo teste de hiptese apesar de ter signicncia estatstica no tem signicncia prtica.
preciso ter cuidado ao se interpretar os resultados de um teste de hiptese principal-
mente quando a amostra tiver tamanho grande, pois qualquer desvio pequeno do valor do
parmetro testado na hiptese nula ser detectado como tendo signicncia estatstica pelo
teste, contudo, como visto, esta diferena poder ter pouca ou nenhuma signicncia prtica.
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 237
12.6 Teste de Aderncia ou Teste de Bondade de Ajuste
Um objetivo comum em aplicaes da Estatstica em problemas da vida real conhecer
qual a distribuio de probabilidade de um conjunto de dados.
2
Este problema resolvido
aplicando um teste de hiptese proposto por K. Pearson.
Testar a aderncia entre dados amostrais e populacionais resume-se em testar se valores
amostrais e populacionais deferem signicativamente estre si. Supondo que um experimento
aleatrio, , foi realizado e apenas um dos k eventos A
1
, , A
k
ocorreu, onde P(A
k
) p
k
.
Seja X
i
, com i = 1, , k, o nmero de ocorrncias de cada A
i
repeties independentes de
, Se uma amostra aleatria de tamanho n retirada da populao, a estatstica do teste
Q
2
=
k

i=1
(f
o
i
f
e
i
)
2
f
e
i
onde f
o
i
e f
e
i
so as frequncias observadas (na amostra) e esperadas (na populao), res-
pectivamente, tem uma distribuio que pode ser aproximada por uma
2
, com k 1 graus
de liberdade, se n ao for necessrio estimar os parmetros populacionais, ou k 1 r, se os
r parmetros populacionais tiverem de ser estimados. Por exemplo, se a suposio for que a
populao segue uma Poisson, r = 1, se Normal, r = 2.
Portanto,
H
0
= f
o
i
= f
e
i
, i,
e o teste consiste em calcular Q
2
e comparar com o valor de uma
2
com k 1 ou k 1 r
graus de liberdade e 100(1 )% nvel de conana.
O numerador de Q
2
envolve a diferena de quadrados entre as frequncias observadas e
esperadas. As frequncias tericas vm da populao, so valores tericos, no podem ser
nulos. Tambm, se forem muitos pequenos, Q
2
apenas reetir a mgnitude de f
o
i
. Portanto,
a literatura sugere que as frequencias esperadas sejam pelo menos 3.
Exemplo 12.6.1: O nmero de defeitos por frequncia, (x
i
, f
o
i
), numa amostra de 60
brinquedos de determinado fabricante se distribui como abaixo. O objetivo testar se os
dados podem seguir uma Poisson.
x
i
f
o
i
0 32
1 15
2 9
3 4
1. Resolvendo o problema sem especicar completamente a distribuio de probabilidade.
Isto signica que supe-se uma distribuio de probabilidade para os dados mas no se
conhece seus parmetros. Os passos para a realizao do teste so:
2
Na verdade, o conjunto de dados so os valores observados de uma, ou mais, varivel aleatria, portanto,
a distribuio de probabilidade relevante a da varivel aleatria que gerou o conjunto de dados.
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 238
(i) Varivel do problema, X, nmero de defeitos nos brinquedos analisados.
(ii) H
0
: os dados seguem uma Poisson,
H
1
: os dados no seguem uma Poisson.
(iii) A estimativa para o pametro da Poisson a mdia amostral (uma vez que a mdia
da Poisson tambm seu parmetro). Logo, x = ((032) + +(34))60 = 0.75
e portanto
X
e
0.75
0.75
k
k!
, k = 0, 1, . . .
(iv) Calculando as probabilidades tericas:
p
0
= P(X = 0) = 0.47,
p
1
= P(X = 1) = 0.35,
p
2
= P(X = 2) = 0.13,
p
3
= P(X = 3) = 0.13,
. . .
(v) Calculando as frequncias esperadas, f
e
i
= np
i
, i = 0, . . . , 3 e n = 60,
f
e
0
= 28.2, f
e
1
= 21, f
e
2
= 7.8, f
e
3
= 2.4.
Como f
e
3
< 3, as duas ltimas frequncias esperadas so adicionadas. Portanto,
para o problema, f
e
0
= 28.2, f
e
1
= 21, f
e
2
= 10.2.
(vi) Calculando a estatstica do teste, Q
2
.
Q
2
=
2

i=0
(f
o
i
f
e
i
)
2
f
e
i
= 2.99.
(vii) Comparando Q
2
com o valor de uma
2
com k 1 r = 3 1 1 = 1 graus de
liberdade e com nvel de conana de 95%.

2
1,95%
= 3.841,
Q
2
= 2.99
Q
2
<
2
1,95%

H
0
no pode ser rejeitada.
2. Resolvendo o problema especicando completamente a distribuio de probabilidade.
Neste caso, o parmetro da varivel aleatria populacional conhecido. No problema
em questo a suposio que os dados seguem uma Poisson de parmetro 0.75. Na
realizao do teste o valor (tabelado) da
2
com k 1 = 3 1 2 graus de liberdade
e 95% de conana 5.991, o que fornece a mesma concluso anterior.
Se a varivel for contnua, para o clculo das frequncias esperadas, a reta dividida em
intervalos mutuamente exclusivos e, a seguir, calculadas as probabilidades tericas.
Exemplo 12.6.2: aguardando dados
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 239
Exerccios
1. Rubens Barrichelo, nos treinos para a temporada de 2000, pilotando uma Ferrari no
circuito de Magny Cours na Frana, fez uma mdia de um minuto e cincoenta segundos
por volta, com um desvio padro de 45 segundos. Sabendo-se que uma corrida nesse
circuito tem 66 voltas, calcule:
(a) Qual a probabilidade dessa corrida ultrapassar o tempo limite de 2 horas?
(b) Qual o tempo provvel da melhor e da pior volta, com 90% de conana de acerto?
(proposto por Dalton Csar P. Shibuya)
2. Os tempos de execuo de um determinado algoritmo obtidos atravs da replicao de
um experimento de simulao foram: 1.5, 2.0, 3.4, 1.8, 2.5 e 5.0. Com 80% de conana
em que regio se encontra seu tempo mdio de execuo?
3. Um analista de sistema precisa decidir sobre a ecincia de um programa desenvolvido
recentemente. Resolve adotar a seguinte regra de deciso: executar o programa 6 vezes
para conjuntos de dados escolhidos aleatoriamente e construir um intervalo de conana
de 98% para o tempo mdio de execuo do programa; considerar o programa eciente
se a amplitude do intervalo de conana obtido for menor do que 4.5 ms. Qual foi a
deciso do administrador se os tempos amostrais, em milisegundos (ms), obtidos foram:
228, 230, 232, 229, 231, 230?
4. Os tempos de execuo, em segundos, de 40 programas processados em um centro de
processamento de dados foram
10 19 90 40 15 11 32 17 4 152
23 13 36 101 2 14 2 43 32 15
27 1 57 17 3 30 50 4 62 48
9 11 20 13 38 54 46 12 5 26
Encontre um intervalo de conana a um nvel de signicncia de 10% para o verdadeiro
tempo mdio de execuo dos programas.
5. O gerente de um CPD sabe que o nmero de linhas de cdigo, X, de um programa
tem uma distribuio normal com varincia 81. Recentemente este CPD contratou
36 novos estagirios e o gerente resolveu mand-los, cada um independentemente do
outro, otimizar o nmero de linhas de cdigo do programa. O nmero mdio de linhas
decorrente do trabalho dos estagirios foi 100. Encontre um intervalo de conana de
90% para o nmero mdio de linhas (na populao).
6. Um pesquisador est estudando a resistncia de um determinado material. Ele sabe
que essa varivel normalmente distribuda com um desvio padro de 2 unidades.
(a) Utilizando os valores a seguir obtidos de uma amostra, 4.9, 7.0, 8.1, 4.5, 5.6, 6.8,
7.2, 6.2 determine o intervalo de conana para a resistncia mdia, com um nvel
de conana de 0.90.
(b) Qual o tamanho da amostra necessrio se quisermos que o erro cometido, ao estimar
a resistncia mdia, no seja superior a 0.01 unidades com probabilidade 0.90?
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 240
7.

um estimador no-tendencioso para um parmetro populacional se E(

) = . Seja
uma amostra aleatria (X
1
, , X
n
) de uma populao cuja distribuio de probabili-
dade tem esperana e varincia, respectivamente, e
2
. Quais dos estimadores abaixo
so no-tendenciosos para ?
(a)

1
=
X
1
+Xn
2
.
(b)

2
=
X
1
+Xn
n
.
(c)

3
=
X
1
++Xn
n
.
(d) Qual a distribuio de

3
, se a distribuio de probabilidade da populao normal
e n grande?
8. Em um exaustivo teste de vida para 10 componentes que no so vendidas com garantia,
os tempos de falha observados, em horas, foram 1200, 1500, 1625, 1725, 1750, 1785,
1800, 1865, 1900 e 1950. Encontre um intervalo de conana de 90% para o tempo
mdio populacional.
9. As diferenas no tempo de processamento entre duas diferentes implementaes de um
mesmo algoritmo foram mensuradas sobre 7 workloads resultando 1.5, 2.6, -1.8, 1.3,
-0.5, 1.7 e 2.4.
(a) Voc pode armar, com 90% de conana que uma implementao superior a
outra?
(b) Teste se a diferena entre as medidas igual a 1 com 99% de conana.
10. Seis similares workloads foram usadas em dois sistemas. As observaes foram (5.4,19.1),
(16.6, 3.5), (0.6,3.4), (1.4,2.5), (0.6,3.6), (7.3,1.7). Voc consideraria um sistema melhor
que outro com 95% de conana?
11. Um experimento consistiu de medir 32 vezes o tempo de uso da CPU por um determi-
nado software. Os resultados foram 3.1, 4.2, 2.8, 5.1, 2.8, 4.4, 5.6, 3.9, 3.9, 2.7, 4.1, 3.6,
3.1, 4.5, 3.8, 2.9, 3.4, 3.3, 2.8, 4.5, 4.9, 5.3, 1.9, 3.7, 3.2, 4.1, 5.1, 3.2, 3.9, 4.8, 5.9, 4.2.
Encontre um intervalo de conana para a mdia com 90% de conana.
12. As diferenas entre os valores medidos e os valores preditos usando um modelo analtico
para um sistema chamada de modelagem do erro. A modelagem do erro para um dado
sistema forneceu os seguintes valores -0.04, -0.19, 0.14, -0.09, -0.14, 0.19, 0.04, 0.09.
Encontre um intervalo de conana para a mdia com 95% de conana.
13. O tempo requerido para executar determinada tarefa foi medido em dois sistemas A e
B. Os tempos para o sistema A foram 5.36,16.57, 0.62, 1.41, 0.64, 7.26; para o sistema
B, 19.12, 3.52, 3.38, 2.50, 3.60, 1.74. Ao nvel de 90% voc consideraria os dois sistemas
estatisticamente distintos?
14. A mesma workload foi aplicada 40 vezes a dois sistemas A e B. Constatou-se que o
sistema A foi superior ao B 26 vezes. Ser que podemos armar com 99% de conana
que o sistema A superior? tem Uma populao tem desvio padro igual a 10.
(a) Que tamanho deveria ter uma amostra para que, com probabilidade 8%, o erro em
estimar a mdia seja inferior a 1?
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 241
(b) Supondo-se colhida a amostra no caso anterior, qual o intervalo de conana para
a mdia populacional, se a mdia amostral 50?
15. A tabela abaixo contm os desvios com respeito aos dimetros de vrios cilindros produ-
zidos por uma determinada mquina. Teste a hiptese de que as observaes obedecem
lei normal se o nvel de signicncia de 5% usado.
limites dos intervalos em microns 0-5 5-10 10-15 15-20 20-25
n
i
15 75 100 50 20
p
i
0.06 0.30 0.40 0.20 0.04
16. Uma substncia radioativa observada durante 2608 iguais intervalos de tempo, cada
um com 7.5 segundos. Para cada um dos intervalos de tempo, foi anotado o nmero de
partculas detectador por um contador. Os nmeros m
i
de intervalos de tempo durante
os quais i partculas alcanaram o contador so dados na tabela abaixo:
i 0 1 2 3 4 5 6 7 8 9 10
m
i
57 203 383 525 532 408 273 139 45 27 16
Teste, usando um teste qui-quadrado, a hiptese de que os dados concordam com uma
lei de Poisson. O nvel de signicncia deve ser tomado como sendo 5%.
17. Na tabela abaixo esto listados m
i
lotes de igual rea (0.25km
2
), na parte Sul de
Londres, cada um dos quais, durante a II Guerra Mundial foi acertado por i bombas.
Teste, com a ajuda da distribuio qui-quadrado que os dados concordam com uma
distribuio de Poisson, se o nvel de signicncia de 6% usado.
i 0 1 2 3 4 5
m
i
229 211 93 35 7 1
18. Para uma na camada de soluo com ouro, anotou-se o nmero de partculas de
ouro que alcanaram o campo de vis ao do microscpio, durante iguais intervalos de
tempo. Teste, atravs de um teste-de-bondade-de-ajuste qui-quadrado, usando 5% de
signicncia, que os dados seguem uma lei de Poisson.
nmero de partculas, i 0 1 2 3 4 5 6 7
m
i
112 168 130 68 32 5 1 1
19. Dez tiros foram disparados por um rie em cem alvos. O nmero de acertos foi regis-
trado, na tabela abaixo. Teste se as probabilidades de acerto nos alvos foram as mesmas
em todos os tiros; em outras palavras, teste se os dados obedecem a uma distribuio
binomial. Use um nvel de signicncia de 10%.
nmero de acertos, i 0 1 2 3 4 5 6 7 8 9 10
m
i
0 2 4 10 22 26 18 12 4 2 0
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 242
20. Sete moedas foram lanadas simultaneamente 1536 vzes, e, cada vez, o nmero de
caras, X, foi registrado. Os dados constam na tabela abaixo. Usando um teste qui-
quadrado e um nvel de signicncia de 5% teste se os dados experimentais obedecem
a uma distribuio binomial. Assuma que a probabilidade de ocorrncia de cara 0.5
em cada moeda.
X
i
0 1 2 3 4 5 6 7
m
i
12 78 270 456 385 252 69 13
21. Suponha que 250 nmeros foram gerados somando-se os 5 dgitos de 250 nmeros es-
colhidos de uma tabela de nmeros aleatrios. Os resultados foram divididos em 15
intervalos e so mostrados na tabela abaixo. Use um teste qui-quadrado para testar se
a distribuio estatstica dos dados segue uma distribuio normal. Use um nvel de
signicncia de 5%.
intervalo m
i
intervalo m
i
intervalo m
i
0-3 0 15-18 28.5 30-33 27.0
3-6 0.5 18-21 39.0 33-36 7.5
6-9 1.5 21-24 41.0 36-39 1.0
9-12 10.0 24-27 45.0 39-42 1.0
12-15 17.5 27-30 30.5 42-45 0
22. Os dgitos 0, 1, 2, 9 entre os primeiros 800 casas decimais do nmero ocorrem 74,
92, 83, 79, 80, 73, 77, 75 e 91 vzes, respectivamente. Use um teste qui-quadrado para
testar a hiptese de que estes dados obedecem a uma lei uniforme. Considere o nvel
de signicncia de 10%.
23. De uma tabela de nmeros aleatrios, 150 nmeros de dois dgitos foram selecionados
(00 tambm um nmero de dois dgitos). Os resultados aparecem na tabela abaixo.
Use um teste qui-quadrado para testar a hitese de que estes dados obedecem a uma
lei uniforme, com um nvel de signicncia de 5%.
intervalo m
i
freq. relativa intervalo m
i
freq. relativa
0-9 16 0.107 50-59 19 0.127
10-19 15 0.100 60-69 14 0.093
20-29 19 0.127 70-79 11 0.073
30-39 13 0.087 80-89 13 0.087
40-49 14 0.093 90-99 16 0.107
Campos & Rgo
Referncias Bibliogrcas
1. A. O. Allen (1978). Probability, Statistics, and Queueing Theory with Computer
Science Applications. Academic Press.
2. L. Breiman (1969). Probability and Stochastic Processes. Houghton Miin Company.
3. M. A. Campos (1997). Uma Extenso Intervalar para a Probabilidade Real. Tese.
Ps-Graduao em Cincia da Computao, Centro de Informtica/UFPE.
4. P. L. de O. Costa Neto e M. Cymbalista (1974). Probabilidades: resumos tericos,
exerccios resolvidos, exerccios propostos. Edgard Blcher.
5. K. L. Chung (1974). A Course in Probability Theory. Academic Press, Second Edi-
tion.
6. K. L. Chung (1974). Elementary Probability Theory with Stochastic Processes. Springer-
Verlag.
7. A. B. Clarke e R. L. Disney (1979). Probabilidade e Processos Estocsticos. Livros
Tcnicos e Cientcos.
8. W. Feller (1976). Introduo Teoria das Probabilidades e suas Aplicaes. Edgard
Blcher Ltda.
9. W. Feller (1967). An Introduction to Probability Theory and Its Applications. Volume
I. Third Edition. John Wiley & Sons.
10. W. Feller (1971). An Introduction to Probability Theory and Its Applications. Volume
II. Second Edition. John Wiley & Sons.
11. P. J. Fernandez (1973). Introduo Teoria das Probabilidades. Livros Tcnicos e
Cientcos.
12. T. Fine (2005). Probability and Probabilistic Reasoning for Electrical Engineers. Pren-
tice Hall.
13. B. V. Gnedenko (1969). The Theory of Probability. Mir Publishers.
14. C. M. Grinstead and J. L. Snell (1991). Instroduction toProbability. American
Mathematical Society.
15. P. G. Hoel, S. C. Port and C. J. Stone (1978). Introduo Teoria da Probabili-
dade. Intercincia.
16. R. V. Hogg and A. T. Craig (1970). Introduction to Mathematical Statistics. Mac-
millan.
243
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 244
17. R. Isaac (1995). The Pleasures of Probability. Springer-Verlag.
18. R. Jain (1991). The Art of Computer Systems Performance Analysis. Techniques for
Experimental Design, Measurement, Simulation, and Modeling. John Wiley & Sons.
19. B. R. James (1981). Probabilidade: um curso em nvel intermedirio. IMPA, CNPq.
20. A. N. Kolmogorov (1950). Foundations of the Theory of Probability. Chelsea Pu-
blishing Company.
21. U. W. Kulisch and W. L. Miranker (1981). Computer Arithmetic in Theory and
Practice. New York, Academic Press.
22. W. Kuo and M. J. Zuo (2003). Optimal Reliability Modeling Principles and Appli-
cations. John Wiley & Sons.
23. B. W. Lindgren (1968). Statistical Theory. Macmillan.
24. S. Lipschutz (1993). Probabilidade. Coleo Schaum, 4a. Edio Revisada. Makrom
Books.
25. P. L. Meyer (1983). Probabilidade. Aplicaes Estatstica. Livros Tcnicos e Cien-
tcos.
26. D. C. Montgomery and G. C. Runger (2003). Estatstica Aplicada e Probabilidade
para Engenheiros. Segunda Edio, Livros Tcnicos e Cientcos.
27. R. E. Moore (1966). Interval Analysis. Prentice Hall, Inc. Englewood Clis.
28. R. E. Moore (1979). Methods and Applications of Interval Analysis. SIAM, Phila-
delphia.
29. F. Mosteller (1965). Fifty Challenging Problems in Probability. Dover Publications.
30. M. F. Neuts (1995). Algorithm Probability. A collection of problems. Stochastic
Modeling Series. ISBN 0 412 99791 X. Chapman & Hall.
31. E. Parzen (1960). Modern Probability Theory and Its Applications. John Wiley &
Sons.
32. E. Parzen (1964). Stochastic Processes. Holden-Day. Second Edition.
33. P. E. Pfeier (1978). Concepts of probability theory. Second Revised Edition, Dover
Publications, Inc.
34. S. M. Ross (1993). Introduction to Probability Theory. Academic Press.
35. S. Russel and P. Norvig (1995). Artitial Intelligence. A Modern Approach. Pren-
tice Hall.
36. A. N. Shiryayev (1984). Probability. Springer-Verlag, New York, Inc.
37. F. Solomon (1987). Probability and Stochastic Processes. Prentice-Hall, Inc.
38. M. R. Spiegel (1978). Probabilidade e Estatstica. Coleo Schaum, McGraw.
39. J. M. Stoyanov (1997). Counterexamples in Probability. Second Edition. John Wiley
& Sons.
Campos & Rgo
12.6. TESTE DE ADERNCIA OU TESTE DE BONDADE DE AJUSTE 245
40. J. M. Stoyanov, I. Mirazchiiski, Z. Ignatov and M. Tamushev (1989). Exercise
Manual in Probability Theory. Kluwer Academic Publishers.
41. A. A. Sveshnikov (1978). Problems in Probability Theory, Mathematical Statistics
and Theory of Random Functions. Dover.
42. K. S. Trivedi (1982). Probability and Statistics with Reliability, Queueing and Com-
puter Science Applications. Prentice-Hall.
43. H. C. Tuckwell (1995). Elementary Applications of Probability Theory. With an
introdution to stochastic dierential equations. Chapman & Hall.
44. N. A. Weiss and M. L. Yoselo (1975). Matemtica Finita. Guanabara Dois.
45. E. Wentzel and L. Ovcharov (1986). Applied Problems in Probability Theory. Mir
Publishers.
Campos & Rgo
Apndice A
Nmeros de Ponto Flutuante
Este apndice refere-se questo da representao dos nmeros reais atravs de nmeros de
ponto utuante.
Todo nmero real x pode ser unicamente representado pela expanso b-dica [?, ?, ?]
x = d
n
d
n1
. . . d
1
d
0
d
1
. . . =

i=n
d
i
b
i
(1)
onde,
{+, }, b IN, b > 1,
0 d
i
b 1, i = n(1)(),
d
i
b 2, para uma quantidade innita de ndices i.
Em (1) o ponto b-dico pode ser mudado para qualquer posio desde que esta mudana seja
convenientemente compensada. Se o ponto for mudado para a esquerda do primeiro dgito
no nulo da expanso b-dica do nmero x, atravs da multiplicao por uma correspondente
potncia de b, ento tem-se o nmero x na forma normalizada. O nmero zero possui uma
representao especial no normalizada.
A seguir uma explicao da necessidade da condio d
i
b 2 para uma quantidade innita
de ndices i.
0.3000 = 3 10
1
+ 0 10
2
+ = 3 10
1
+ + 0 10
n
+ . . .
0.2999 = 2 10
1
+ 9 10
2
+ = 2 10
1
+ + 9 10
n
+ . . .
Portanto as sequncias
s
1n
= 3 10
1
+ + 0 10
n
s
2n
= 2 10
1
+ + 9 10
n
so montonas e limitadas. Ento convergem, e convergem para 0.3. Como pode ser visto
em s
2n
, d
i
b 2 para uma quantidade innita de ndices i. Note que
s
3n
= 2 10
1
+ 8 10
2
+ + 8 10
n
246
247
converge para 0.29.
Seja R
b
o conjunto de todos os x normalizados, mais o zero; em geral R
b
no pode ser
representado em computadores. Um subconjunto de R
b
que representvel denido a
seguir.
Denio C.1 Um nmero real x chamado um nmero de ponto utuante normalizado
[?, ?, ?, ?, ?] ou um nmero de ponto utuante se
x = d
1
d
2
. . . d
l
b
e
(2)
onde,
{+, }, b IN, b > 1, (3)
1 d
1
b 1, (4)
0 d
i
b 1, i = 2, . . . , l (5)
e
min
e e
max
, e, e
min
, e
max
nmeros inteiros. (6)
b a base da representao, o sinal de x, m = d
1
d
2
. . . d
l
a mantissa e e o expoente. A
mantissa tem comprimento l. Representa-se o nmero zero unicamente por
0 = 0 00 . . . 0 b
e
min
S(b, l, e
min
, e
max
) um sistema de ponto utuante, onde cada x S, x = 0, satisfaz,
(2),(3),(4),(5),(6). Uma caracterstica de S que,
0 S
1 S
x S x S, x S
S um conjunto nito. Tem exatamente 2(b1)b
l1
(e
max
e
min
+1)+1 elementos, que s so
igualmente espaados entre sucessivas potncias de b. Porque S nito no h possibilidade
de se representar o conjunto dos reais em detalhes. Como um modelo para IR, o conjunto
S tem uma aritmtica denida sobre ele. A questo que esta aritmtica no satisfaz
propriedades bsicas do ponto de vista da soluo de problemas numricos no conjunto dos
reais. Supondo que x e y so nmeros de ponto utuante, ento nem sempre x + y ou x y
esto em S. A manipulao algbrica de frmulas baseada em algumas leis fundamentais
que so vlidas nos reais, mas no em S; [?, ?, ?] mostram que, considerando as operaes
aritmticas de adio e multiplicao em S, respectivamente, + e , so vlidas (T) e no
so vlidas(F).
(T) a + b = b + a, a, b S
(T) a b = b a, a, b S
(T) a + 0 = 0 +a = a, a S
Campos & Rgo
248
(T) a 1 = 1 a = a, a S
(T) a S, (a) S tal que a + (a) = (a) + a = 0
(F) (a + b) + c = a + (b + c), a, b, c S
(F) (a b) c = a (b c), a, b, c S
(F) a b = a c b = c a, b, c S, a = 0
(F) a (b + c) = (a b) + (a c), a, b, c S.
Os primeiros computadores adotaram sistemas de representao de ponto utuante com
diferentes bases, tamanho da palavra, nmero de dgitos signicativos, etc. Este fato ocasi-
onava srios problemas tais como diculdade de raciocinar em torno de provas relacionadas
com algoritmos que geravam nmeros de ponto utuante, porque os resultados aritmticos
eram dependentes da mquina. Alm disso, a ausncia de um padro que especicasse de
modo detalhado as operaes bsicas e os formatos de dados acarretava a falta de portabi-
lidade dos softwares.
O esforo para produzir um padro para ponto utuante originou o IEEE Standard for
Binary Floating-Point Arithmetic [?, ?, ?] e A Radix-Independent Standard for Floating-
Point Arithmetic [?].
Campos & Rgo