Вы находитесь на странице: 1из 7

Probabilidade Conjunta

Funcao de distribuicao

O nosso estudo de variável aleatória e de suas funções de probabilidade até agora se restringiram a
espaços amostrais unidimensionais nos quais os valores observados eram assumidos por uma única v. a.
Entretanto, existem situações em que se deseja observar resultados simultâneos de várias variáveis
aleatórias. Por exemplo, podemos medir o total precipitado, a umidade e a temperatura, resultado em
um espaço amostral tri-dimensional que consiste nos resultados (p, u, t). 1.1.

VARIAÇÕES ALEATÓRIAS DISCRETAS

Se x e y são duas variáveis aleatórias, a distribuição de probabilidades de sua ocorrência simultânea


pode ser representada pela função com valores f(x, y) para qualquer par de valores (x, y).Costuma-se
referir a esta função como Distribuição de Probabilidade Conjunta de x e y. Para o caso discreto: F(x, y) –
P (X = x, Y = y) = f.m.p. ou seja, os valores f(x, y) dão a probabilidade dos resultados x e y ocorrerem ao
mesmo tempo.

Etapas básicas num teste de hipótese

Os testes de hipóteses encontram-se entre as ferramentas mais poderosas e perigosas na estatística.


Eles nos permitem realizar afirmativas em relação a uma população e atribuir um grau de incerteza a
essas afirmativas.

Pegue um jornal e folheie todo ele; raro será o dia em que o jornal não contenha uma matéria
apresentando um resultado estatístico, frequentemente descrito com um nível de significância.
Considerando que as matérias dessas reportagens – saúde pública, meio ambiente e assim por diante –
são importantes para nossas vidas, é crucial que realizemos apropriadamente cálculos estatísticos e as
interpretações. A primeira etapa, aquela que você deve procurar quando estiver lendo os resultados
estatísticos, é a especificação/formulação apropriada.

Formulação ou especificação, colocando de maneira simples, representa a lista de etapas que você deve
percorrer ao construir um teste de hipóteses. As etapas do teste de hipóteses são:

Declarar a hipótese nula e a hipótese alternativa;

Selecionar a distribuição apropriada;


Determinar a região de rejeição e a região de não rejeição.

Uma vez que essas etapas tenham sido percorridas, tudo o que você precisa fazer é calcular o p-valor ou
a estatística do teste no intuito de completar o teste de hipóteses. É importante permanecer atento em
relação às armadilhas inerentes à especificação.

Embora possa parecer óbvio, declarar apropriadamente as hipóteses pode ser difícil. Para hipóteses em
torno da média aritmética de uma população, a hipótese nula e a hipótese alternativa são afirmações
matemáticas que não se sobrepõem e, também, não apresentam lacunas.

Distribuicao condicional

Seja (X, Y ) um vetor aleatório discreto com distribuição conjunta p(x, y). A distribuição condicional de X
𝑃(𝑋=𝑥,𝑌=𝑦)
dado Y = y é definida como: P(X = x | Y = y) = ∀𝑥
𝑃(𝑌=𝑦)

Analogamente define-se a distribuição condicional de Y dado X = x como:

𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
P(Y = y|X = x ) =
𝑃(𝑋 = 𝑥)

O que é o Diagrama de Dispersão?

Considerado uma das 7 ferramentas básicas da qualidade, o Diagrama de Dispersão, também conhecido
como Gráfico de Dispersão, Gráfico de correlação ou Gráfico XY, é uma representação gráfica da
possível relação entre duas variáveis, ou seja, mostra de forma gráfica os pares de dados numéricos e
sua relação.

Geralmente, a relação vem de uma variável que é independente e outra variável que é dependente da
primeira, ou seja, a variável independente é a causa que provoca o efeito e a dependente é o efeito, a
consequência gerada pela causa, portanto, se formos analisar a relação entre a temperatura ambiente
com a quantidade de sorvetes vendidos em um diagrama de dispersão, veremos que quanto mais alta a
temperatura mais sorvetes é vendido. Neste caso a variável independente é a temperatura e a
dependente é a quantidade de sorvetes vendida.
Você também pode utilizar o Diagrama de Dispersão para validar se determinada variável independente
analisada tem impacto real em determinada variável dependente.

Essa relação entre as variáveis é chamada de correlação, e existem três tipos: positiva, negativa e nula.

Correlação positiva: quando há uma aglomeração dos pontos em tendência crescente, significa que
conforme uma variável aumenta, a outra variável também aumenta. Por exemplo, no caso da relação
entre temperatura e número de sorvetes vendidos, temos uma relação positiva.

Correlação negativa: quando os pontos se concentram em uma linha que decresce, significa que
conforme uma variável aumenta, a outra variável diminui, ou seja, quanto maior for a ocorrência de um
dos dados, menor será a ocorrência do outro dado. Por exemplo, se correlacionarmos a taxa de
natalidade com a riqueza de um país, veremos que quanto mais rico um país, menor é a taxa de
natalidade.

Correlação nula: quando há uma grande dispersão entre os pontos ou eles não seguem tendência
positiva nem negativa, significa que não há nenhuma correlação aparente entre as variáveis.

Dispersão dos pontos

A dispersão dos pontos mostra qual a intensidade da relação: forte ou fraca.

Forte: Quanto menor for a dispersão dos pontos, maior será a correlação entre os dados.

Fraca: Quanto maior for a dispersão dos pontos, menor será o grau entre os dados.

Quando usar um Diagrama de Dispersão?


O Diagrama de Dispersão é usado para analisar a relação entre duas variáveis e em que intensidade a
mudança de um dado impacta outro dado. Isso pode ser aplicado:

Ao tentar identificar possíveis causas raiz dos problemas, ou seja, ao invés de levantar apenas
suposições, fazer uma validação com um diagrama de dispersão para listar hipóteses de causas raiz com
base em fatos e dados.

Após brainstorming de causas e efeitos usando um Diagrama de Ishikawa, por exemplo, para determinar
se uma causa e um efeito estão relacionadas. imagine que ao discutir as causas do número de acidentes
em uma rodovia, apareceu como causa o “dia de chuva”, então é possível fazer um diagrama de
dispersão da relação entre dia de chuva e número de acidentes.

Na validação se 2 efeitos ocorrem com a partir de uma mesma causa. Isso é muito útil quando você tem
várias não conformidades com uma mesma causa raiz e você queira validar se a correlação é verdadeira.

Ao testar a autocorrelação antes de construir um gráfico de controle.

O que pode acontecer é que mesmo que o diagrama de dispersão mostre uma relação, não suponha
que uma variável causou a outra. Ambos podem ser influenciados por uma terceira variável que não foi
considerada, por isso, ao usar essa ferramenta é necessário o levantamento constante de hipóteses.

Por exemplo: os estatísticos chegaram à hipótese que quanto maior o consumo de sorvetes na praia,
mais pessoas morriam afogadas. Um pouco sem nexo. Mas quando as pessoas tomam mais sorvetes?
Geralmente em dias quentes, e quanto mais calor, mais as pessoas costumam ir para o fundo do mar,
uma explicação lógica de correlação para o caso das mortes nas praias de Santos. Portanto, o fator
morte e fator venda de sorvete está relacionado à temperatura.

Como fazer?

Selecionar a causa e o efeito dos quais se deseja descobrir a relação;

Coletar os dados dessas duas variáveis para a composição os gráficos. Essa coleta de dados pode ser
feita através da folha de verificação;

Desenhar os dois eixos do gráfico, e colocar a variável dependente no eixo vertical, e a variável
independente no eixo horizontal.

Colocar os dados no gráfico, desenhando um ponto para cada uma das ocorrências dos dados;
Verificar a disposição dos pontos no gráfico para identificar se há correlação positiva, negativa ou nula.

Coeficiente de Correlacao

Diz-se que existe correlação entre duas ou mais variáveis quando as alterações sofridas por uma delas
são acompanhadas por modificações nas outras. Ou seja, no caso de duas variáveis x e y os aumentos
(ou diminuições) em x correspondem a aumentos (ou diminuições) em y. Assim, a correlação revela se
existe uma relação funcional entre uma variável e as restantes.. Note-se que a palavra regressão em
Estatística corresponde à palavra função em Matemática. Ou seja, enquanto o matemático diz que y é
função de x, o estatístico fala em regressão de y sobre x.

Regressao múltipla

Regressão múltipla é uma coleção de técnicas estatísticas para construir modelos que descrevem
de maneira razoável relações entre várias variáveis explicativas de um determinado processo. A
diferença entre a regressão linear simples e a múltipla é que na múltipla são tratadas duas ou mais
variáveis explicativas.

Teste de Kormogorov

Regressão múltipla é uma coleção de técnicas estatísticas para construir modelos que descrevem
de maneira razoável relações entre várias variáveis explicativas de um determinado processo. A
diferença entre a regressão linear simples e a múltipla é que na múltipla são tratadas duas ou mais
variáveis explicativas.

Os dados consistem num conjunto de n elementos, que formam uma amostra aleatória X1,X2,...,Xn
associada a alguma função distribuição, F(x). Seja F∗(x) uma função distribuição completamente
especificada. É possível formular as seguintes hipóteses:

Teste bilatera

H0 : F(x)=F∗(x) para todo o x ∈R

H1 : F(x) = F∗(x) pelo menos para um valor de x

B. Teste unilateral

H0 : F(x) ≥ F∗(x) para todo

H1 : F(x) <F∗(x) pelo menos para um valor de x

C. Teste unilateral

H0 : F(x) ≤ F∗(x) para todo o x ∈R

H1 : F(x) >F∗(x) pelo menos para um valor de x


O teste é conservador se F∗(x) for discreta. O teste de Kolmogorov deve ser usado, em vez do teste do
Qui-quadrado, quando a amostra for pequena, pois é exacto mesmo para pequenas amostras, enquanto
que, os testes do Qui-quadrado supõem um número razoável de observações, por forma a que a
distribuição χ2 seja uma boa aproximação à distribuição da ’estatística’ Q.

O teste de Kolmogorov deve ser usado quando a função distribuição da hipótese nula está
completamente especificada, isto é, quando não há parâmetros que necessitam de ser estimados a
partir da amostra. Caso contrário, torna-se conservador. Mais flexível do que este é o teste de ajuste do
Qui-quadrado. Neste último, tivemos oportunidade de estimar alguns parâmetros da distribuição,
desconhecidos, a partir dos dados (amostra). Como consequência, ao número de graus de liberdade da
’estatística’ do teste, subtraía-se uma unidade por cada parâmetro estimado. O teste do Qui-quadrado
também exige um ’agrupamento’ dos dados, que, por vezes, é arbitrário. O teste do Kolmogorov foi
modificado de modo a permitir situações em que os parâmetrossãoestimadosapartirdosdados.
A’estatística’dotesteédomesmotipo(Kolmogorov) e o que varia são os pontos críticos da tabela da
distribuição da ’estatística’.

Teste de Distribuicao(Smirnov)

O teste bilateral de Smirnov e consistente em relação a todos os tipos de diferencas que possam surgir
entre as duas funções de distribuição. E uma versão do teste de Kormogorov, valido para duas
amontras, sendo também conhecido por teste de Kormogorov-Smirnov para duas amostras. O teste de
Kormogorov e também conhecido por teste de Kormogorov-Smirnov para uma amostra.

Os dados consentem em duas amostras aleatórias independentes, uma de tamanho n, X1, X2,…Xn e
outra de tamanho m, Y1, Y2,…Ym retiradas de duas populações com distribuição F(x) e G(y) (ou G(x))
respectivamente. Estas funções são desconhecidas. Pretende-se saber se as duas funções são idênticas.

O teste de Smirnov e exacto se as distribuições forem continuas. Se elas forem discretas, o teste e ainda
valido embora se torne conservador.

Podemos formular as seguintes hipóteses:

Teste bilateral

H0: F(x)=G(x) para todo X∈ 𝑅

H1: F(x)≠ 𝐺(𝑥) pelo menos para um valor de x

Teste unilateral

H0: F(x)≤ 𝐺(𝑥) para todo X∈ 𝑅

(Os valores de X tendem a ser menores do que os de Y)


H1: F(x)> 𝐺(𝑥) pelo menos para um valor de X

Teste unilateral

H0: F(x)≥ 𝐺(𝑥) para todo X∈ 𝑅

( A hipótese diz que os valores de X estão descolocadas para a direita(maiores) em relação aos de Y )

J1: F(x)< 𝐺(𝑥)pelo menos para um valor de X.

A ’estatística’ é definida de uma maneira diferente consoante o conjunto de hipóteses consideradas.

Um teste do tipo de Smirnov para o caso de 3 distribuições é o teste Birnbaum - Hall, análogo ao teste
de Smirnov. Se as diferenças entre as médias são acompanhadas por diferenças entre as variâncias, e
outras, os testes do tipo Smirnov são mais potentes do que os de Kruskal - Wallis e da normal. O único
inconveniente do teste de Birnbaum-Hall reside no facto de só ser aplicado a três distribuições, uma vez
que os pontos críticos da distribuição da ’estatística’ do teste foram calculados e tabelados apenas para
este caso. Por esta razão, existem outros testes, ainda do tipo Smirnov, cujas distribuições foram
construídas (tabeladas) para mais (até 10) distribuições. Estes testes não são consistentes com todas as
hipóteses alternativas possíveis, como se verá. O teste unilateral de Smirnov é apropriado para
hipóteses alternativas que consideram as diferenças e as direcções em que surgem. São pois alternativas
unilaterais. Os dados consistem em k amostras aleatórias de tamanhos iguais a n. As distribuições
empíricas são, respectivamente, S1(x),S2(x),...,Sk(x), e as funções de distribuição F1(x),F2(x),...,Fk(x)
representam as k populações, desconhecidas, As amostras aleatórias devem ser independentes umas
das outras. As variáveis devem ser contínuas, para que o teste seja exacto. Caso contrário, torna-se
conservador.

A escala de medições é, pelo menos, ordinal.

H0 : F(x) ≥ G(x) para todo o x ∈R

[A hipótese diz que os valores de X estão deslocados para a direita (maiores) em relação aos de Y]

H1 : F(x) <G (x) pelo menos para um valor de x

A ’estatística’ é definida de uma maneira diferente consoante o conjunto de hipóteses consideradas.

Вам также может понравиться