Вы находитесь на странице: 1из 430

Estadística II

Ph.D. Christian Rosero, MSc.


Error Muestral

• Estadísticos (muestra) son usados para estimar


parámetros (población)
ej.: x es un estimador de la media poblacional, μ
Problemas:
– Diferentes muestras proporcionan diferentes estimados de los
parámetros de la población.
– Los resultados muestrales presentan variabilidad, por lo tanto,
existe error muestral.

Recordar: Con una muestra aleatoria se busca conseguir un grupo


representativo de la población.
Cálculo del Error Muestral
• Error Muestral:
Es la diferencia entre un valor (estadístico) calculado de la
muestra y su correspondiente valor (parámetro) calculado
de la población

Ejemplo: (Para la media)


Error Muestral  x - μ
Donde:
¡Siempre
x  Media muestral presente dado
que se usa una
μ  Media poblaciona l muestra!
Recordatorio

Media Poblacional: Media Muestral:

μ
 x i Ver Tema 3 x
 x i

N n
La media La media muestral
poblacional Donde: puede VARIAR
NO varía cuando diferentes
μ = Media poblacional muestras son
tomadas de la
x = Media muestral población
xi = Valores en la población o muestra
N = Tamaño de la población
n = Tamaño de la muestra
Ejemplo

Si la media poblacional es μ = 98.6 °C y una


muestra de n = 5 temperaturas da una media
muestral de x= 99.2 °C, entonces el error
muestral es:

x  μ  99.2  98.6  0.6  C


Errores Muestrales
• Diferentes muestras darán diferentes errores
muestrales.
• El error muestral puede ser positivo o negativo (x
puede ser mayor que o menor que μ).
• El tamaño del error depende de la muestra
seleccionada.
• Es decir, un mayor tamaño de muestra no necesariamente
produce un error pequeño si la muestra no es
representativa.
Distribución Muestral

Una distribución muestral es una


distribución de probabilidad de los
posibles valores de un estadístico para
muestras (del mismo tamaño)
seleccionadas de una población.
͞x1
Valores
Población que
puede
Media μ tomar la
Muestra1 variable
Muestra 2 ͞x2 aleatoria
͞ x

Muestra n

͞xn Describir ͞x
A través de
una
distribución
muestral
Desarrollo de una Distribución
Muestral
• Supongamos una población…
• Tamaño de población N=4 A B C D

• Variable aleatoria, x, es la
edad de los individuos
• Valores de x: 18, 20,
22, 24 (años)

7-9
Desarrollo de una Distribución
Muestral
(continuación)

Medidas de resumen para la distribución de la población:

μ
 x i
P(x)
N 0.3

18  20  22  24
  21 0.2
4 0.1

 (x
0
 μ) 2
x
σ i
 2.236 18 20 22 24
N A B C D
Distribución Uniforme
Desarrollo de una
Distribución Muestral
(continuación)
Considerar todas las muestras posibles de tamaño n=2

16 Medias
Muestrales

1era 2da Observación


Obs. 18 20 22 24
18 18 19 20 21
20 19 20 21 22
22 20 21 22 23
16 muestras posibles
(muestreo con 24 21 22 23 24
remplazo)
Desarrollo de una
Distribución Muestral
(continuación)

Distribución Muestral (todas las medias muestrales)

16 Medias muestrales Distribución de


medias muestrales
1era 2da Observación
Probabilidad de ocurrencia de
Obs. 18 20 22 24 P(x) una particular media muestral

18 18 19 20 21 .3

20 19 20 21 22 .2
22 20 21 22 23 .1
24 21 22 23 24 0
18 19 20 21 22 23 24
_
x
(No es distribución uniforme)
Desarrollo de una
Distribución Muestral
(continuación)
Medidas de resumen de esta distribución muestral:


Promedio de
x 18  19  21   24 las medias
μx   i
 21 muestrales

N 16

σx 
 i x
(x  μ ) 2

(18 - 21)2  (19 - 21)2    (24 - 21)2


  1.58
16
Comparando la Población con su
Distribución Muestral
Distribución de la Distribución de la Media
Población Muestral
N=4 n=2
μ  21 σ  2.236 μx  21 σ x  1.58
P(x) P(x)
.3 .3

.2 .2

.1 .1
x
0 0
18 19 20 21 22 23 24
_
18 20 22 24 x
A B C D
Propiedades de una Distribución
Muestral
• Para cualquier población,
– El valor promedio de todas las posibles medias muestrales calculadas
de todas las posibles muestras aleatorias de un tamaño dado de la
población es igual a la media poblacional.
Es considerado un μx  μ Teorema 1
estimador “insesgado”

– La desviación estándar de todas las posibles medias muestrales


calculadas de todas las posibles muestras aleatorias de tamaño n es
igual a la desviación estándar poblacional dividida por la raíz
cuadrada del tamaño de muestra.

σ
Llamado también σx  Teorema 2
error estándar n
Si una Población es Normal

Si una población es normal con media μ y


desviación estándar σ, la distribución muestral
de x también es normal con

σ
y μx  μ σx 
n
Teorema 3

A medida que n se incrementa la dispersión de la distribución


muestral se reduce
Propiedades de la Distribución
Muestral
• La media muestral es un estimador
insesgado Distribución
Poblacional Normal

μx  μ
Distribución
Muestral Normal
(tiene la misma media)

μx
Propiedades de la Distribución
Muestral (continuación)
• La media muestral es un estimador consistente
(el valor de x se acerca a μ a medida que n crece):
Población

x
Tamaño de
muestra
pequeño
Si n crece,
σ x  σ/ n decrece Tamaño de
muestra
grande

μ
Valor Z para la Distribución Muestral
de x
• El valor z para la distribución muestral de x:
(x  μ)
z
σ
n
Donde: x = Media muestral
μ = Media poblacional
σ = Desviación estándar poblacional
n = Tamaño de muestra
Corrección por Población Finita
• Aplicar la Corrección por Población Finita si:
– La muestra es grande relativa a la población
(n es mayor al 5% de N)
y…
– El muestreo es sin remplazo
(x  μ)
z
Entonces σ Nn
n N 1
Nn
Donde: El factor de corrección por población finita es: N 1
Si la Población no es Normal
• Se puede aplicar el Teorema del Límite Central:
– Incluso si la población no es normal,
– …las medias muestrales de la población se
distribuirán aproximadamente como una normal
mientras el tamaño de muestra sea suficientemente
grande
– …y la distribución muestral tendrá:

σ
μx  μ σx 
y

n Teorema 4
Teorema del Límite Central

Mientras el n↑ La distribución
tamaño de muestral se
muestra sea hará casi
suficiente- normal sin
mente considerar la
grande… forma de la
población
¿Qué es suficientemente grande?

• Para la mayoría de las distribuciones, n > 30


dará una distribución muestral que es casi
normal.
• Para distribuciones simétricas, n > 15 es
suficiente.
• Para poblaciones con distribución normal, la
distribución muestral de la media será siempre
normal.
Usando la Distribución Muestral para
Medias

1. Calcular la media muestral.


2. Definir la distribución muestral.
3. Definir la probabilidad de interés a calcular.
4. Convertir la media muestral a un valor z.
5. Encontrar la probabilidad usando la tabla de
distribución normal estándar.
Ejemplo

• Suponer una población con media μ = 8 y


desviación estándar σ = 3. Además una
muestra aleatoria de tamaño n = 36 es
seleccionada.

• ¿Cuál es la probabilidad que la media de la


muestra esté entre 7.8 y 8.2?
Ejemplo
(continuación)
Solución:
• Incluso si la población no tiene distribución
normal, el teorema del límite central puede ser
usado (n > 30)
• … entonces la distribución de muestreo de es
aproximadamente normal x
• … con media =μ= 8
μx
• …y desviación estándar σ 3
σx    0.5
n 36
Ejemplo
(continuación)
Solución (continuación) – encontrar los valores z:

 
 7.8 - 8 x -μ 8.2 - 8 
P(7.8  x  8.2)  P   
 3 σ 3 
 36 n 36 
 P(-0.4  z  0.4)  0.3108

Distribución de la Población Distribución Muestral Distribución Normal Estándar


0.1554
??? 0.1554
? ??
? ? Muestrear Estandarizar
?? ?
?
-0.4 0.4
μ8 x 7.8
μx  8
8.2 x μz  0 z
• Estimador Insesgado
Estimadores que producen estadísticos tales que el promedio de todos los
posibles valores muestrales (de muestras del mismo tamaño) de los mismos
coinciden con el parámetro de la población.
Ejemplo: La media muestral es un estimador insesgado de la media poblacional.

• Estimador Consistente
Un estimador insesgado es un estimador consistente si la diferencia entre el
estimador y el parámetro tiende a cero conforme el tamaño de muestra se
agranda.
Ejemplo: la media muestral es un estimador consistente de la media poblacional.
Distribución Muestral de una Proporción
El objeto del muestreo es la estimación de la proporción de una población que
satisface un determinado atributo.

Ejemplos:
• Un contador puede estar interesado en determinar la proporción de saldos de cuentas
por cobrar que están correctas.
• Un supervisor de producción puede desear determinar el porcentaje de productos libre
de defectos.
• El departamento de investigación de mercados podría desear conocer la proporción de
compradores potenciales que efectivamente compraran el producto.
• En todos estos casos se puede seleccionar una muestra, calcular la
proporción muestral y tomar una decisión basada en los resultados de la
muestra.

• Al igual que las medias muestrales, las proporciones muestrales están


sujetas al error muestral. La distribución muestral de estas proporciones
son un medio para evaluar la magnitud potencial de estos errores
muestrales.
Proporción Poblacional, π
π = Proporción de la población que tiene
alguna característica
• Proporción muestral ( p ) proporciona un
estimado de π :

x Número de éxitos en la muestra


p 
n Tamaño de la muestra
• Si hay dos resultados, p tiene distribución
binomial
Distribución Muestral de p

• Aproximado por una Distribución Muestral


P( p )
distribución normal si: .3
– nπ  5 .2
.1

n(1  π)  5
0
0 .2 .4 .6 8 1
p

Donde π(1 π)
μp  π σp  Teorema 5

y n
(Donde π = Proporción poblacional)
Valores Z para Proporciones
Estandarizar p a un valor z con la fórmula:

pπ pπ
z 
σp π(1  π)
n
• Si el muestreo es sin remplazo y n es
mayor al 5% del tamaño poblacional,
π (1  π ) N  n
entonces debe usar elσfactor
p de σp 
corrección por población finita: n N 1
Usando la Distribución Muestral para
Proporciones
1. Determinar la proporción poblacional, p.
2. Calcular la proporción muestral, p.
3. Determinar la media y desviación estándar
de la distribución muestral.
4. Definir el evento de interés.
5. Si np y n(1-p) son ambos mayores que 5,
entonces convertir p a valor z.
6. Usar la tabla de la distribución normal
estándar para determinar la probabilidad.
Ejemplo

• Si la proporción verdadera de votantes que


apoyan la propuesta A es π = 0.4. ¿Cuál es la
probabilidad que una muestra de tamaño 200
dé una proporción muestral entre 0.40 y 0.45?

 Es decir: Si π = 0.4 y n = 200. ¿Cuánto es


P(0.40 ≤ p ≤ 0.45)?
Ejemplo
(continuación)

Si π = 0.4 y n = 200. ¿Cuánto es


P(0.40 ≤ p ≤ 0.45)?
π(1  π) 0.4(1  0.4)
Determinar σp: σp    0.03464
n 200

Convertir a  0.40  0.40 0.45  0.40 


la normal P(0.40  p  0.45)  P z 
 .03464 .03464 
estándar
(valor z):  P(0  z  1.44)
Ejemplo
(continuación)
Si π = 0.4 y n = 200. ¿Cuánto es
P(0.40 ≤ p ≤ 0.45)?

Usar la tabla normal estándar: P(0 ≤ z ≤ 1.44) = 0.4251

Distribución Distribución Normal


Muestral Estándar

0.4251

Estandarizar

0.40 0.45 0 1.44


p z
Punto Estimado o Estimado Puntual

• Un punto estimado es un número, estimado a través de una muestra, y


empleado como estimación de un parámetro desconocido.

• Ejemplo:
Para determinar el costo de un producto se selecciona una muestra y cada
producto de la muestra es seguido a través de todo el proceso productivo,
registrándose los costos en que se incurre. Se indentifica el costo total de
cada producto y luego el costo promedio de la muestra. Este costo
promedio es un estimado puntual, o punto estimado, del verdadero costo
promedio de producción, el cual es un parámetro de la producción.
Puntos Estimados

Se puede estimar un con un estadístico


parámetro… (un punto estimado)

Media μ x
Proporción π p
Punto Estimado o Estimado Puntual

• La igualdad exacta entre un parámetro y su punto estimado


es imposible.

Se tiene un error muestral y, a través del estimado


puntual, no es posible hacer inferencias respecto
del error muestral, cuán lejos está x de μ.

• Para superar esta situación se puede recurrir a la estimación


de intervalos de confianza.
Intervalos de Confianza

• ¿Cuánta incertidumbre está asociada a un


punto estimado de un parámetro?

• Un intervalo estimado proporciona más


información acerca de una característica
poblacional que un punto estimado

• Los intervalos estimados son llamados


intervalos de confianza
Intervalos de Confianza

• Un intervalo de confianza proporciona información


adicional. Se estima a partir de data muestral y tiene la
siguiente estructura:

Límite de Límite de
Confianza Confianza
Inferior Punto Estimado Superior
Ancho del intervalo de
confianza
Intervalos de Confianza

• El diseño del intervalo de confianza es tal que


si se tomasen todas las muestras posibles de
un tamaño determinado, y a partir de ellas se
construyesen todos los intervalos posibles de
un ancho determinado, un porcentaje de
estos (denominado nivel de confianza),
incluiría al parámetro poblacional μ.
Intervalos de Confianza

• Un intervalo da un rango de valores:


– Toma en consideración la variación de un
estadístico de muestra a muestra.
– Basado en la observación de una muestra.
– Informa sobre la cercanía a parámetros
desconocidos.
– Expresado en términos de nivel de confianza
• Nunca 100% seguro.
Proceso de Estimación

Muestra Aleatoria Estoy 95%


seguro que μ
está entre 40
Población Media y 60.
(media, μ, es x = 50
desconocida)

Muestra
Fórmula General

• La fórmula general para todos los


intervalos de confianza es:

Punto Estimado  (Valor Crítico)(Error Estándar)

Valor z ( ó t) basado
en el nivel de
confianza deseado
Nivel de Confianza

• Nivel de Confianza
– Confianza en que el intervalo
contendrá al parámetro desconocido
• Un porcentaje (menor al 100%)
– Los más comunes: 90%, 95%, 99%.
Nivel de Confianza, (1-)
(continuación)

• Suponer un nivel de confianza de 95%.


• Una interpretación de frecuencia relativa:
– El 95% de todos los intervalos de confianza
que pueden ser construidos contendrá al
parámetro desconocido.

• Un intervalo específico contendrá o no al


parámetro.
– No hay probabilidad involucrada en un
intervalo específico.
Intervalos de Confianza

Intervalos de
Confianza

Media Proporción
Poblacional Poblacional

σ σ
conocida desconocida
Intervalo de Confianza para μ
(σ Conocida)
• Supuestos
– Desviación estándar poblacional σ es conocida.
– Población tiene distribución normal.
– Si la población no es normal, usar una muestra
grande n > 30.

• Intervalo de confianza:
Error estándar
σ
Estimado

xz
Punto

Valor
crítico n
Intervalo de Confianza para μ
(σ Conocida)
Media muestral ~ N(μ, σ/√n)
(Media muestral – μ)/ σ/√n ~ N(0, 1)
z ~N(0,1) Prob(z > zα/2) = α/2 zα/2
z ~N(0,1) Prob(z < -zα/2) = α/2 -
zα/2
(x – μ)/ σ/√n > zα/2 (x – μ)/ σ/√n < -zα/2
Error estándar
σ
Estimado

xz
Punto

Valor
crítico n
Hallando el Valor Crítico
• Considerar un intervalo de z  1.96
confianza al 95%:
1   .95 0.95/2 = 0.475
buscar en la
tabla Z

α α
 .025  .025
2 2

Z unds.: z = -1.96 0 z = 1.96


Límite de Límite de
X unds.: Confianza Punto Estimado Confianza
Inferior Superior
σ x σ
xz xz
n n
Niveles de Confianza Comunes
• Los niveles de confianza comúnmente
usados son 90%, 95% y 99%
Nivel de Valor
Confianza Crítico, z
80% 1.28
90% 1.65
95% 1.96
98% 2.33
99% 2.58
99.8% 3.08
99.9% 3.27
Cálculo de un Intervalo de Confianza para
la Media (s Conocida)
1. Seleccionar una muestra aleatoria de
tamaño n.
2. Especificar el nivel de confianza.
3. Calcular la media muestral.
4. Determinar el error estándar.
5. Determinar el valor crítico (z) de la tabla
normal estándar.
6. Calcular el intervalo de confianza.
Ejemplo

• Una muestra de 11 circuitos de una


población normal grande tiene una
resistencia media de 2.20 ohms. Se sabe de
evaluaciones pasadas que la desviación
estándar poblacional es 0.35 ohms.

• Determinar un intervalo de confianza al 95%


para la resistencia media de la población.
Ejemplo
(continuación)

Solución:
σ
xz
n
 2.20  1.96 (0.35/ 11)
 2.20  .2068
1.9932 2.4068

Con un 95% de confianza la resistencia


media poblacional está aproximadamente
entre 1.99 y 2.41 ohms
Interpretación

• Estamos 95% seguros que la resistencia media


poblacional está entre 1.9932 y 2.4068 ohms.

• Aunque la media poblacional podría estar o no


en este intervalo, el 95% de los intervalos
formados de esta manera la contendrán.

8-57
Margen de Error
Margen de Error
• Margen de Error (e): Es la cantidad agregada y sustraída al
punto estimado para formar el intervalo de confianza
• Define la relación entre el parámetro (población) y su estadístico (muestra).
• Medida de la cercanía que se espera que el estimado puntual esté del
parámetro poblacional, según el nivel de confianza especificado.

Ejemplo: Margen de error para estimar μ, σ conocida:

σ σ
xz ez
n n
Factores que Afectan el Margen
de Error

σ
ez
n
• Dispersión de datos, σ : e cuando σ

• Tamaño de muestra, n : e cuando n

• Nivel de confianza, 1 -  : e si 1 - 
Intervalo de Confianza para μ
(σ Desconocida)
Intervalo de Confianza para μ
(σ Desconocida)

• Si la desviación estándar poblacional, σ, es


desconocida, podemos sustituirla por la
desviación estándar muestral, s.
• Esto introduce incertidumbre extra, desde
que s varía de muestra a muestra.
• Entonces usamos la distribución t en vez de
la distribución normal estándar.
Intervalo de Confianza para μ
(σ Desconocida)
(continuación)

• Supuestos
– Desviación estándar poblacional es desconocida.
– Población tiene distribución normal.
– Si la población no es normal, usar una muestra
grande n > 30.

• Usar la distribución t (de Student)


• Intervalo de Confianza: s
xt
n
Distribución t (de Student)
• Las distribuciones t son una familia de distribuciones.
• El valor t depende de los grados de libertad (gl.)
– Número de observaciones que son libres de variar después que la
media muestral ha sido calculada.
gl. = n – 1
– Solamente hay n-1 datos independientes en la muestra dado que la
media muestral ha sido calculada.
Grados de Libertad (gl)
Idea: Número de observaciones que son libres de variar
después que la media muestral ha sido calculada
Ejemplo: Suponer que la media de 3 números es 8.0

Sea x1 = 7
Si la media de estos tres
Sea x2 = 8 valores es 8.0,
¿x3 es? entonces x3 debe ser 9
(x3 no es libre de variar)
Aquí, n = 3, entonces los grados de libertad = n -1 = 3 – 1 = 2
(2 observaciones pueden tomar cualquier número, pero el
tercero no es libre de variar para una media dada)
Distribución t (de Student)
Comparación de distribuciones t con Z cuando
n crece
Cuando n , el estimado de s se
Normal hace mejor y t converge a Z
Estándar
(t con gl = )

t (gl = 13)
Las distribuciones t son
simétricas y tienen forma
de campana, pero tienen t (gl = 5)
colas más gruesas que la
normal

0 t
Tabla t (de Student)

Nivel de Confianza
Sea: n = 3, gl = n - 1 = 2,
gl 0.50 0.80 0.90 nivel de confianza = 90%

1 1.000 3.078 6.314

2 0.817 1.886 2.920


3 0.765 1.638 2.353 /2 = 0.05

El cuerpo de la tabla
contiene valores t, 0 2.920 t
no probabilidades
Distribución t: Valores
Comparación con el valor z

Nivel de t t t z
Confianza (10 gl) (20 gl) (30 gl) ____

0.80 1.372 1.325 1.310 1.28


0.90 1.812 1.725 1.697 1.64
0.95 2.228 2.086 2.042 1.96
0.99 3.169 2.845 2.750 2.58

Nota: Comparación de t con z cuando n crece


Ejemplo
Una muestra aleatoria de n = 25 tiene x = 50 y
s = 8. Construir un intervalo de confianza al
95% para μ

– gl = n – 1 = 24, entonces t/2 , n 1  t 0.025,24  2.0639


El intervalo de confianza es:
s 8
xt  50  (2.0639)
n 25
46.698 53.302
Aproximación para Muestras
Grandes
• Como t se parece a z cuando el tamaño muestral crece,
una aproximación es usada a veces cuando n es grande.
• La tabla proporciona valores t hasta los 500 grados de
libertad.
• Hay programas que proporcionan el valor t correcto para
cualquier grado de libertad.

Fórmula correcta, Aproximación para


σ desconocida n grande

s s
xt xz
n n
Tamaño de la Muestra

Lo ideal es tener un alto nivel de confianza, un bajo margen de


error y un tamaño de muestra pequeño.

Lamentablemente, estos tres objetivos están en conflicto, se


requiere un balance entre los mismos.
Determinación del Tamaño de
Muestra
• El tamaño de muestra requerido puede ser
hallado considerando un margen de error
deseado (e) y un nivel de confianza (1 - )

– Tamaño de muestra requerido, σ conocida:

s z σ
2
zσ 2 2

ez n     2
n  e  e
Tamaño de Muestra Requerido:
Ejemplo
Si s = 45. ¿Cuál es el tamaño de muestra
necesario al 90% de confianza para estar
dentro del ± 5?

zσ 2 2
1.645 (45) 2 2
n 2  2
 219.19
e 5

Entonces el tamaño de muestra requerido es n=220

(Siempre redondear
hacia arriba)
¿Qué si no se conoce la desviación estándar de
la población?
Tres alternativas:
• Considerar un valor d para la DS, tal que se tenga la
seguridad que la DS de la población será menor a ese valor
d.
• Tomar una muestra piloto y en base a ella estimar la DS de la
población. Los datos de la muestra piloto podrán ser usados
más adelante como unidades de la muestra que se recolecte.
• Emplear el rango de los valores que puede tomar la
población, para estimar su DS.
Continúa….
Rango de Valores Poblacionales
• La regla empírica y la distribución normal indican que virtualmente todos
los valores de la población están contenidos en el intervalo:

μ ± 3σ

Por lo tanto, los valores poblacionales están:

De μ - 3σ a μ + 3σ

Esto es, se tiene un rango:

R = ( μ + 3σ ) - ( μ - 3σ ) = 6σ

De esta forma, si se conoce el rango poblacional, la DS de la población se


puede estimar como:

σ ≈ R/6 o en forma más conservadora: σ ≈ R / 4


Estimación de una proporción poblacional
Se ha visto la estimación de una media poblacional, sin embargo hay
situaciones en que lo que interesa es la estimación de la proporción de la
población que satisface o posee determinado atributo.

Ejemplo: La estimación de la proporción de la población de


clientes que están satisfechos con el servicio brindado
por una empresa.
• Se denota con π la proporción de la población que satisface el atributo
de interés.

• Una estimación puntual o un estimado punto de π está dado por la


proporción p de objetos de la muestra que satisfacen el atributo en
cuestión:

p = x/n
Donde:
p: Proporción muestral
x: Número de objetos que satisfacen el atributo
n: Tamaño de la muestra
Intervalos de Confianza para la
Proporción Poblacional, π

• Un intervalo estimado para la proporción


poblacional ( π ) puede ser calculado
agregando y sustrayendo una tolerancia (que
expresa la incertidumbre) a la proporción
muestral ( p ).
Intervalos de Confianza para la
Proporción Poblacional, π(continuación)
• Recordar que la distribución de la proporción
muestral es aproximadamente normal si el tamaño
de muestra es grande, con desviación estándar
π(1 π)
σπ 
n np ≥ 5 y n(1-p) ≥ 5

• Estimación con los datos muestrales:

p(1 p)
sp 
n
Límites de un Intervalo de
Confianza
• Los límites de confianza, inferior y superior, para la
proporción poblacional son calculados con la fórmula

p(1 p)
pz
• Donde n
– z es el valor normal estándar para el nivel de confianza deseado
– p es la proporción muestral
– n es el tamaño de muestra
Ejemplo

• Una muestra aleatoria de 100 personas


indica que 25 son zurdos.
• Construir un intervalo de confianza al 95%
para la proporción poblacional de zurdos.
Ejemplo
(continuación)
• Una muestra aleatoria de 100 personas
indica que 25 son zurdos. Construir un
intervalo de confianza al 95% para la
proporción poblacional de zurdos.
1. p  25/100  0.25
2. Sp  p(1  p)/n  0.25(0.75)/100  0.0433

3. 0.25  1.96 (0.0433)


0.1651 0.3349
Interpretación

• Estamos 95% seguros que el porcentaje


de zurdos en la población está entre
16.51% y 33.49%

• Aunque este rango podría contener o no


la proporción poblacional, el 95% de los
inter-valos construidos de esta forma y de
tamaño muestral 100 la contendrá.
Cambiando el Tamaño de
Muestra
• Incrementos en el tamaño de muestra
reducen el ancho del intervalo de
confianza.
Ejemplo:
– Si el tamaño de muestra en el ejemplo anterior fuera el
doble, 200, y si 50 fueran los zurdos en la muestra,
entonces el intervalo todavía seguiría centrado en 0.25,
pero con el ancho reducido
0.19 0.31
Hallando el Tamaño Muestral Requerido en
Problemas de Proporción

Definir el π(1 π)
margen de error: ez
n

z π (1  π)
2
Calcular n: n 2
e
π puede ser estimado con una muestra
piloto. Si es necesario ser conservador usar
π = 0.50 (máxima variación posible, por lo
tanto, máximo tamaño de muestra)
¿Qué Tamaño de Muestra?

• ¿Cuán grande debería ser una muestra para


estimar la proporción de defectuosos en una
población grande con margen de error de 3%
y 95% de confianza?
(Asumir que una muestra piloto da
p=0.12)
¿Qué Tamaño de Muestra?
(continuación)

Solución:
Para el 95% de confianza, usar z = 1.96
e = 0.03
p = 0.12, usar esto para estimar π

z 2 π (1  π) (1.96) 2 (0.12)(1  0.12)


n   450.74
e2 (0.03) 2

Usar n = 451
Introducción a Pruebas de Hipótesis
Inferencia Estadística
Estimación
Estimación de un parámetro Puntual
poblacional a través de un
estadístico muestral Intervalos
Inferencia de
Estadística confianza

Prueba de Hipótesis
Rechazo o no rechazo de una afirmación
respecto de un parámetro poblacional, a través
de una muestra
Prueba de Hipótesis - Ejemplos
• El gerente de operaciones toma muestras cada dos horas de botellas de
jugos que están siendo llenadas para comprobar si el contenido
promedio de las mismas es de 32 onzas. Formula una hipótesis en la
dirección del status quo:

“El contenido promedio de las botellas es de 32 onzas”

En base a la información de la muestra se tomará la decisión de rechazar


o no la hipótesis.

Rechazará en caso la media muestral esté “muy alejada” de las 32 onzas,


caso contrario mantendrá el supuesto que la media poblacional es de 32
onzas. Esto es, le da el beneficio de la duda al status quo.
Prueba de Hipótesis - Ejemplos
• Para el lanzamiento de una nueva droga al mercado se requiere la
aprobación del FDA. Se requiere una validación de que la droga es segura
y efectiva, lo cual debe efectuarse en base a información muestral. La FDA
prefiere correr el riesgo de rechazar una droga efectiva y segura, antes que
aceptar como segura y efectiva una droga que no lo es; formula su
hipótesis en esa dirección, la cual asume como el status quo:

“La droga no es ni segura ni efectiva”

En base a la data muestral tomará su decisión sobre rechazar o no la


hipótesis.
Prueba de hipótesis - Ejemplos
• En el sistema legal se da el beneficio de la duda al acusado, para lo cual se
formula la hipótesis en esa dirección, la cual se considera el status quo:

“El acusado es inocente”

En base a las pruebas y evidencia el jurado y el juez deberán de rechazar o


no esta hipótesis. Se debe concluir que “más allá de una duda razonable”
el acusado cometió el crimen, rechazando la hipótesis. Si la evidencia no
es suficientemente fuerte, no se rechazará la hipótesis de inocencia.
Esta sesión introduce los conceptos básicos en la
elaboración de prueba de hipótesis. Los cuales
servirán de base para el desarrollo de diferentes
técnicas de pruebas de hipótesis de sesiones
posteriores.
¿Qué es Prueba de Hipótesis?

• Es una técnica de inferencia estadística.


• Permite el análisis de afirmaciones respecto de parámetros de la
población, en base a estadísticos muestrales.

• Un método analítico para la toma de decisiones.

• A través de la recolección de evidencia estadística, un enunciado acerca


de una población puede ser rechazado o no
• Debe haber suficiente evidencia para rechazar el enunciado, en
caso contrario no se rechaza.

• Un proceso que incorpora el error muestral


• Considerando el error muestral, nunca probamos algo al 100%.
¿Qué es Prueba de Hipótesis?
• Toda información muestral está sujeta a error muestral, por lo tanto el análisis de
una afirmación respecto de un parámetro poblacional no puede basarse en la
simple comparación de un valor (proveniente de la afirmación) con su
correspondiente estadístico muestral.

• Se requiere de un procedimiento que incorpore el error muestral potencial.

• Las pruebas de hipótesis estadísticas proporcionan un método analítico


estructurado para el análisis de estas afirmaciones, controlando, o midiendo, los
errores que se pueden cometer. No pueden eliminar la incertidumbre ni la
posibilidad de error, pero si el control del nivel de los mismos.

• Las técnicas que a continuación se presentan asumen información obtenida en base


a muestras recolectadas según apropiados procesos estadísticos, así como que la
data es de intervalo o de razón.
¿Qué es una Hipótesis?
• Una hipótesis es un enunciado
(supuesto) respecto a un
parámetro (población):

– Media poblacional
Ejemplo: La media de las cuentas mensua-
les de celulares en una ciudad es µ = $42
– Proporción poblacional
Ejemplo: La proporción de adultos con
celulares en esa ciudad es π = 0.68
• En la prueba de hipótesis se formulan dos hipótesis:

– La Hipótesis Nula: H0

– La Hipótesis Alternativa: HA

En base a la data muestral se rechaza o no se rechaza la H0. HA se estima


como cierta si se rechaza H0
La Hipótesis Nula, H0
• Establece el supuesto o enunciado al cual se le
desea dar el beneficio de la duda.
Ejemplo: El número promedio de televisores en
los hogares de US. es al menos 3: H0 : μ  3
• Es siempre respecto a un parámetro
(población), y no respecto a un estadístico
(muestra)
H0 : μ  3 H0 : x  3
La Hipótesis Nula, H0
(continuación)

• Se empieza asumiendo que la hipótesis nula es


verdadera.
– Similar a la noción de inocencia hasta que la
culpabilidad sea probada.
• Referido al status quo.
• Siempre contiene el signo “=” , “≤” o “”
• Puede ser o no rechazada.
– Basada en la evidencia estadística recolectada
La Hipótesis Alternativa, HA
• Es el opuesto de la hipótesis nula
– ej.: El número promedio de televisores en los
hogares de U.S. es menor que 3 ( HA: µ < 3 )
• Desafía al status quo.
• Nunca contiene los signos “=” , “≤” o “”.
• Puede ser o no “aceptada”.
• Es generalmente la hipótesis que es presumida correcta
(apoyada por el investigador, lo que debe ser “demostrado”)
es la llamada hipótesis de investigación.
Formulación de Hipótesis

• Ejemplo 1: La compañía Ford ha trabajado para


reducir el ruido de carretera en la cabina de la
camioneta rediseñada F150. Además desea
anunciar en su publicidad que la camioneta es
más silenciosa. El promedio en el diseño
original fue de 68 decibeles en 60 mph.

¿Cuál es la prueba de hipótesis apropiada?


Formulación de Hipótesis
(continuación)
• Ejemplo 1: Ford Motor Company ha trabajado para reducir el ruído de carretera en la
cabina de la camioneta rediseñada F150. Además desea anunciar en su publicidad que la
camioneta es más silenciosa. El promedio en el diseño original fue de 68 decibeles en 60
mph.

• ¿Cuál es la prueba de hipótesis apropiada?

H0: µ ≥ 68 (la camioneta no es silenciosa) status quo


HA: µ < 68 (la camioneta es silenciosa) se desea probar

• Si la hipótesis nula es rechazada, Ford tiene suficiente evidencia para


respaldar que la camioneta es más silenciosa.

• Se le da el beneficio de la duda a lo que se toma como status quo.


Formulación de Hipótesis
(continuación)

• Ejemplo 2: El ingreso promedio anual de los


compradores de las camionetas Ford F150 se
considera que es $65,000. Se le desea dar el
beneficio de la duda a este enunciado.

¿Cuál es la prueba de hipótesis apropiada?


Formulación de Hipótesis
(continuación)

• Ejemplo 2: El ingreso promedio anual de los compradores de las


camionetas Ford F150 pickup se considera que es $65,000. Un analista
industrial desea probar esto.

• ¿Cuál es la prueba de hipótesis apropiada?

H0: µ = 65,000 (es lo considerado) status quo


HA: µ ≠ 65,000 (es diferente a lo considerado)

• El analista creerá en lo considerado, a menos


que encuentre evidencia suficiente para
desacreditar esto.
Formulación de Hipótesis

• La hipótesis alternativa carga con el peso de la prueba. En ese sentido, generalmente,


en investigación lo que se quiere probar constituye la hipótesis alternativa y suele
recibir la denominación de la Hipótesis de Investigación.

• Ejemplo. Goodyear ha desarrollado un nuevo neumático que aduce tiene una mayor
durabilidad que el de la competencia que, en promedio, se sabe que dura 60,000 millas
de uso. El peso de la prueba pasa a ser que el nuevo neumático dura más de 60,000
millas, por lo tanto las hipótesis se plantean así:

H0: El nuevo neumático, en promedio, dura igual o menos de 60,000 millas


HA: El nuevo neumático dura más de 60,000 millas (Hipótesis de Investigación)

Solo si la data muestral produce una media muy superior a las 60,000 millas se
aceptará la hipótesis de investigación.
Errores en la Toma de
Decisiones

Tres resultados para una prueba de hipótesis:

1. No hay error en la decisión.

2. Error tipo I.

3. Error tipo II.


Errores en la Toma de
Decisiones (continuación)

• Error Tipo I
– Rechazar la hipótesis nula cuando es verdadera.
– Considerado como un error grave.

• La probabilidad del Error Tipo I es 

– Llamado nivel de significancia de la prueba.


– Fijado por el investigador al inicio de la prueba.
Errores en la Toma de
Decisiones (continuación)

• Error Tipo II
– No rechazar (aceptar) la hipótesis nula
cuando es falsa.

La probabilidad del Error Tipo II es β

– β es un valor calculado, la fórmula será


discutida posteriormente.
Proceso de Prueba de
Hipótesis
Supuesto: Se cree que edad media
poblacional es 50.
Hipótesis Nula: H0: µ = 50
Población
Seleccionar una muestra aleatoria:

Muestra
Supongamos que la
¿Es x = 20 Si no es probable,
edad media muestral probable RECHAZAR
es 20: x = 20 si µ = 50? Hipótesis Nula
Razón para Rechazar la H0
Distribución Muestral de x

x
20 μ = 50
Si H0 es
Sería poco verdadera
... entonces
probable obtener rechazamos la
una media hipótesis nula
... si en realidad este valor
muestral de este fuera la media poblacional…
(μ = 50)
valor...
Resultados y Probabilidades
Resultados Posibles de Prueba de
Hipótesis
Escenario
Decisión H0 Verdadera H0 Falsa
No
No error Error Tipo II
Rechazar
Leyenda: (1 -  ) (β)
Resultado H0
(Probabilidad) Rechazar Error Tipo I No Error
H0 ( )  (1-β)

Grave
Potencia de la prueba
Decisiones

• Si la hipótesis nula no se rechaza, muchos profesionales de la estadística


argumentan que no se debe usar la frase “se acepta la hipótesis nula”,
dado que la prueba no puede ser así de concluyente, lo único que se tiene
es que la data muestral no ha permitido rechazar la hipótesis nula, pero
no dice nada respecto de su validez.

• Sin embargo, en muchas situaciones el no rechazo de la prueba nula


implica una decisión que, implícitamente, implica la aceptación de su
validez.
Error Tipo I y Tipo II: Relación
 El error Tipo I y Tipo II no pueden suceder al
mismo tiempo
Error Tipo I puede ocurrir solamente si H0
es verdadera
Error Tipo II puede ocurrir solamente si H0
es falsa
Si la probabilidad del error tipo I () , en-
tonces la probabilidad del error tipo II (β)
Factores que Afectan el Error
Tipo II
• Manteniendo todo lo demás igual,
– β cuando la distancia entre el supuesto
parámetro y su valor verdadero
– β cuando 

También se tiene:
La fórmula usada para
– β cuando σ calcular el valor de β
será discutida
– β cuando n posteriormente
Nivel de Significancia α y Valor Crítico

• Considere la siguiente prueba de hipótesis:

H0: μ ≤ 25 días
HA : μ > 25 días

La prueba de hipótesis se basa en la media muestral ͞x:


– Valores de ͞x menores o iguales a 25 días tenderán a dar sustento a H0.
– Valores de ͞x por encima de los 25 días tenderán a rechazar H0

Pero se sabe que se tiene error muestral, entonces a partir de que valor de ͞x se está dispuesto
a no rechazar H0 y a partir de qué valor se estará dispuesto a rechazar H0.

Se requiere un punto de corte, que defina dos regiones excluyentes y exhaustivas de rechazo
y de no rechazo.

Este punto de corte, denominado Valor Crítico, se define en base a la definición de una
probabilidad máxima que se está dispuesto aceptar para cometer el Error tipo I. Esta
probabilidad recibe el nombre de Nivel de Significancia de la prueba α.
Nivel de Significancia α y Valor Crítico

Distribución Muestral de x

H0: μ ≤ 25 Nivel de Significancia α


HA: μ > 25 Prob. cometer Error Tipo I = α

x
μ = 25

Punto de Corte:
Valor Crítico
Nivel de Significancia, 
• Define valores poco probables para el
estadístico si la hipótesis nula es verdadera
– Define la región de rechazo de la distribución
muestral.
• Es identificado por , (nivel de significancia)
– Los valores típicos son 0.01, 0.05, ó 0.10.
• Es establecido por el investigador al inicio.
• Proporciona valor(es) crítico(s) para la prueba.
Hipótesis Nula de Igualdad
H0: μ = 3
Si ͞x resulta extremo, superior a ͞xmax HA: μ  3
o inferior a ͞xmin, entonces rechazar
H0 y considerar HA como cierta

Rechazar H0 No rechazar H0 Rechazar H0

͞xmin µ=3 ͞xmax

-zmin 0 zmax
Hipótesis Nula de Desigualdad
H0: μ ≥ 3
Construcción de la prueba 
HA: μ < 3
Prob deseada de rechazar
H0

Rechazar H0 No rechazar H0

Aplicación real de la prueba ͞xmin µ=¿3?


Uso de xmin
da menor Prob de rechazar H0
Suponga
Menor
Postura conservadora en α μ = 3.5
términos de rechazar el status
quo
Error Tipo I menor que lo
especificado.

Rechazar H0 No rechazar H0

͞xmin µ=3.5
Pruebas de Hipótesis para la Media

Pruebas de
Hipótesis para 

σ conocida σ desconocida

• Asumir inicialmente que la desviación


estándar poblacional σ es conocida
Caso a considerar:

• Caso de σ conocida
• Distribución normal de la media muestral
– Población con distribución normal
– Tamaño de muestra que permite la aplicación del
Teorema de Límite Central ( n ≥ 30 )
Procedimiento General
Se formulan las hipótesis nula y alternativa:

• La hipótesis nula contiene una afirmación sobre la media poblacional μ

• Se toma como cierta la hipótesis nula y se considera la distribución


muestral de la media en base a μ y σ/√n

• En base a la curva normal estandarizada se encuentra el valor o valores


críticos que definirán la región de rechazo:
zα, -zα, o zα/2 y -zα/2
• Se toma la muestra y se calcula el estadístico de la prueba, el cual se
transforma a valor z y se ve si cae o no en la región de rechazo.
Procedimiento General
Nivel de Significancia y Región de
Rechazo
Nivel de significancia = 

Prueba unilateral izquierda Prueba unilateral derecha Prueba bilateral

Ejemplo: Ejemplo: Ejemplo:


H 0: μ ≥ 3 H 0: μ ≤ 3 H0: μ = 3
HA: μ < 3 HA: μ > 3 HA: μ ≠ 3

   /2 /2

-zα 0 0 zα -zα/2 0 zα/2

Rechazar H0 No rechazar H0 No rechazar H0 Rechazar H0 Rechazar H0 No rechazar H0 Rechazar H0


Valor Crítico para Prueba
Unilateral Izquierda
H0: μ ≥ 3
 El valor de corte,-zα o xα , HA: μ < 3
es llamado valor crítico


Basado en 

Rechazar H0 No rechazar H0
-zα 0
xα µ=3
σ
x  μ  z
n
Valor Crítico para Prueba
Unilateral Derecha
 El valor de corte, zα o xα , H0: μ ≤ 3
HA: μ > 3
es llamado valor crítico

No rechazar H0 Rechazar H0
0 zα
µ=3 xα

σ
x  μ  z
n
Valores Críticos para Prueba
Bilateral
 Hay dos valores de H0: μ = 3
corte (valores críticos): HA: μ  3

± zα/2
o /2 /2
xα/2
Inferior
Rechazar H0 No rechazar H0 Rechazar H0
xα/2 -zα/2 0 zα/2
Superior
xα/2 µ=3 xα/2
Inferior Superior

σ
x/2  μ  z/2
n
Dos Técnicas Equivalentes para
Probar Hipótesis
• Considerando Z:
– Dado , calcular el(los) valor(es) crítico(s) z:
• -zα o zα ,o ±zα/2
– Convertir la media x a z (estadístico de prueba): x μ
z 
– Rechazar H0 si z está en la región de rechazo,
σ
en otro caso no rechazar H0 n
• Considerando x:
– Dado , calcular el(los) valor(es) crítico(s):
• xα o xα/2(Inf.) y xα/2(Sup.)
– La media muestral es el estadístico de prueba. Rechazar H0 si x está en
la región de rechazo, en otro caso no rechazar H0
Proceso de Prueba de Hipótesis

1. Especificar el parámetro (población) de interés.


2. Formular la hipótesis nula y alternativa.
3. Especificar el nivel de significancia deseado, α.
4. Definir la región de rechazo.
5. Tomar una muestra aleatoria y determinar si el
estadístico de prueba está en la región de
rechazo.
6. Tomar una decisión e interpretar el resultado.
Prueba de Hipótesis: Ejemplo
Probar el enunciado que el número medio
de televisores en los hogares de US. es al
menos 3. (Asumir σ = 0.8)
1. Especificar el parámetro poblacional de interés
 El número medio de televisores en los hogares

de US.
2. Formular la hipótesis nula y alternativa
 H0: μ  3 HA: μ < 3 (Prueba Unilateral Izquierda)
3. Especificar el nivel de significancia deseado
 Suponer que se elige  = 0.05
Prueba de Hipótesis: Ejemplo
(continuación)
• 4. Determinar la región de rechazo

 = .05

Rechazar H0 No rechazar H0

-zα= -1.645 0

Es una prueba unilateral con  = 0.05.


Dado que σ es conocida, el valor de corte es un valor z
Rechazar H0 si z < z = -1.645; caso contrario no rechazar H0
Prueba de Hipótesis: Ejemplo
(continuación)
• 5. Tomar una muestra aleatoria y calcular el estadístico
de prueba.
Supongamos que el tamaño de la muestra es 100 y
su media es: x = 2.84 (s = 0.8 es conocida)
– Entonces el estadístico de prueba es:

x μ 2.84  3  .16
z      2.0
σ 0.8 0.08
n 100
Prueba de Hipótesis: Ejemplo
(continuación)
• 6. Tomar una decisión e interpretar el resultado

 = .05

z
Rechazar H0 No rechazar H0

-1.645 0
-2.0

Dado que z = -2.0 < -1.645, rechazamos la hipótesis


nula que el número medio de televisores en los hogares
de U.S. es al menos 3. Hay suficiente evidencia que el
número medio es menos de 3.
Prueba de Hipótesis: Ejemplo
(continuación)
• Otra técnica equivalente de construir la región de rechazo:
Ahora expresado
en unidades de x
 = .05 y no de z

x
Rechazar H0 No rechazar H0

2.8684 3
2.84
σ 0.8
x α  μ  zα  3  1.645  2.8684
Como x = 2.84 < 2.8684, n 100
rechazamos la hipótesis
nula
Prueba de Hipótesis
a través del valor p
Valor p: Ejemplo
• Ejemplo: ¿Cuán probable es obtener
una media muestral de 2.84 (o menor a
esta) si la media poblacional es   3?
 = 0.05
P(x  2.84)
valor p =0.0228
 
 2.84  3.0 
 P z  
 0.8 
 100 
 P(z  2.0)  0.0228 2.8684 3 x
2.84
-1.645 0 Z
-2.00
Valor p: Ejemplo
(continuación)

• Compare el valor p con 


– Si valor p <  , rechazar H0
– Si valor p   , no rechazar H0
 = 0.05
Aquí: valor p = 0.0228 valor p = 0.0228
 = 0.05
Como 0.0228 < 0.05,
rechazamos la hipótesis nula
2.8684 3
2.84
Prueba de Hipótesis a través del
valor p
• Convertir el estadístico (x) al estadístico de
prueba (valor z, si σ es conocida)
• Determinar el valor p de una tabla o
computadora
• Comparar el valor p con 
– Si el valor p < , rechazar H0
– Si el valor p  , no rechazar H0
Prueba de Hipótesis a través del
valor p (continuación)

• Valor p: Probabilidad de obtener una prueba


estadística igual o más extrema que el valor
del estadístico (muestra) observado dado que
H0 es verdadera.
– Llamado también nivel de significancia observado.

– El menor valor de  para que H0 pueda ser


rechazada.
Prueba de Hipótesis a través del
valor p (continuación)

• Da un nivel de significancia al resultado de la


prueba de hipótesis.
• Informa más que un simple rechazo.
• Puede determinar con qué seguridad se
“rechaza” o “no rechaza” la H0.
• Mientras más distante sea el valor p de , la
decisión es más segura.
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)

Un administrador de la industria de telecomu-


nicaciones considera que la cuenta promedio
mensual de celulares se ha incrementado, y es
mayor a $52. Se desea probar este enun-ciado.
(Asumir s = 10 es conocida)

Formulando las hipótesis:

H0: μ ≤ 52 el promedio no es mayor que $52


HA: μ > 52 el promedio es mayor que $52
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)
Hallando la región de rechazo:
Para esta prueba se eligió  = 0.10
Rechazar H0

 = 0.10

No rechazar H0 Rechazar H0
0 zα

Rechazar H0 si z > zα
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)
Hallando el valor crítico:
Dado  = 0.10. ¿Cuál es el valor z crítico?

0.90 0.10 Tabla Z


Z .07 .08 .09
 = 0.10
1.1 .3790 .3810 .3830
0.50 0.40
1.2 .3980 .3997 .4015
z 0 1.28
1.3 .4147 .4162 .4177
valor z crítico
= 1.28
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)
Calculando el estadístico de prueba:
Obtener la muestra aleatoria y calcular el estadístico de
prueba
Supongamos que la muestra tomada presenta los
siguientes resultados: n = 64, x = 53.1(s=10 conocida)
– El estadístico de prueba es:

x μ 53.1  52
z    0.88
σ 10
n 64
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)
Tomando una decisión e interpretando el resultado:
Rechazar H0

 = 0.10

No rechazar H0 Rechazar H0
1.28
0
z = 0.88
No rechazar H0 dado que z = 0.88 ≤ 1.28 = zα
No hay suficiente evidencia para concluir que la cuenta
promedio mensual de celulares sea mayor a $52
Prueba Unilateral Derecha para la
Media (s conocida): Ejemplo
(continuación)
Probando a través del valor p:
Calcular el valor p y compararlo con 
valor p = 0.1894

Rechazar H0 P(x  53.1)


 = 0.10  
 53.1  52.0 
 P z  
 10 
0  64 
 P(z  0.88)  0.5  0.3106
No rechazar H0 Rechazar H0
1.28
z = 0.88  0.1894

No rechazar H0 dado que el valor p = 0.1894 >  = 0.10


Caso a considerar:

• Caso de σ desconocida
• Distribución normal de los valores de la
población
Pruebas de Hipótesis para μ, s
desconocida
• Cuando σ es desconocida, convertir el
estadístico (x) al estadístico de prueba t
Pruebas de
Hipótesis para 

s conocida s desconocida
El estadístico de prueba es:
x μ
t n 1 
(La población debe ser s
aproximadamente normal)
n
Proceso de Prueba de Hipótesis para
μ, s desconocida
1. Especificar el valor del parámetro de interés.
2. Formular la hipótesis nula y alternativa.
3. Especificar el nivel de significancia deseado.
4. Determinar la región de rechazo (los valores
críticos corresponden a la distribution t con n-1
grados de libertad).
5. Obtener una muestra aleatoria y calcular el
estadístico de prueba.
6. Tomar una decisión e interpretar el resultado.
Prueba Bilateral para μ, s
desconocida: Ejemplo
El costo promedio de una
habitación (hotel) en Nueva
York es $168 por noche.
Una muestra aleatoria de
25 hoteles da x = $172.5 y s
= $15.4. Probar para  = H0: μ = 168
0.05. HA: μ  168
(Asumir que la población tiene distribución normal)
Prueba Bilateral para μ, s
desconocida: Ejemplo
(continuación)
Solución:
H0: μ = 168 HA: μ  168
s es desconocida, usar la distribución t

/2=0.025 /2=0.025

Rechazar H0 No rechazar H0 Rechazar H0


Valores críticos: -tα/2 0 tα/2
t24 = ± 2.0639 -2.0639
1.46 2.0639

x μ 172.50  168
t n 1    1.46
s 15.40
n 25
No rechazar H0: No hay suficiente evidencia para concluir que el costo promedio
de una habitación (hotel) por noche en Nueva York sea diferente de $168
Prueba de Hipótesis: Proporciones
• Se ha visto el tema de prueba de hipótesis respecto de la media de una
población, se dan casos en que lo que interesa analizar son hipótesis
respecto de la proporción de objetos de una población que satisfacen un
atributo.

• El atributo puede ser una variable categórica.

• Ejemplos:
– Proporción de artículos defectuosos por hora, en una línea de
ensamblaje, para decidir o no el ajuste de la misma.
– Evaluación del desempeño de los ejecutivos de ventas de seguros de
vida según la proporción de pólizas renovadas en un año.
Prueba de Hipótesis para
Proporciones

• Considera valores categóricos


• Dos posibles resultados
– “Éxito” (posee cierta característica)
– “Fracaso” (no posee esa característica)

• La fracción o proporción de la población


categorizada como “éxito” se denota por π
Proporciones
• La proporción muestral de éxitos es denotada
por:
x Número de éxitos en la muestra
p 
n Tamaño de la muestra

• Cuando nπ y n(1- π) son mayores o iguales a


5, p se distribuye aproximadamente como
una normal con media y desviación estándar:
μp  π π(1 π)
σp 
n
Pruebas de Hipótesis para
Proporciones

• La distribución
muestral de p es Pruebas de
normal, entonces el Hipótesis para π
estadístico de
prueba es z:
nπ  5 nπ < 5
pπ y o
z n(1-π)  5 n(1-π) < 5
π(1  π)
No será
n discutido
Prueba de Hipótesis para π: Ejemplo

Una empresa de investi-


gación de mercado cree que
recibe como respues-ta el
8% de los correos que envía.
Para probar este enunciado,
se tomó una muestra
Verificando:
aleatoria de 500 y se obtuvo
25 respuestas. Además se n π = (500)(0.08) = 40 
ha considerado  = 0.05. n(1-π) = (500)(0.92) = 460

Como son mayores a 5 se


asume distribución normal
Prueba de Hipótesis para π:
Ejemplo (continuación)
Solución: H0: π = 0.08 HA: π  0.08
 = 0.05 n = 500, p = 0.05

Rechazar Rechazar

0.025 0.025

Valores críticos: ± 1.96 -1.96 0 1.96 z


Estadístico de prueba:
pπ 0.05  0.08
z   2.47
π(1  π) 0.08(1  0.08)
n 500

Decision: Rechazar H0 para  = 0.05

Conclusión: Hay suficiente evidencia para concluir que la proporción


de respuestas a los correos enviados es diferente de 8%
9-159
Prueba de Hipótesis para π:
Ejemplo (continuación)
Solución (valor p):
Calcular el valor p y compararlo con 
(Para una prueba bilateral el valor p es siempre a dos colas)

Rechazar H0 No rechazar H0 Rechazar H0

/2 = 0.025 /2 = 0.025

0.0068 0.0068

-1.96 0 1.96
z = -2.47 z = 2.47
Obtención del valor p:
P(Z  2.47)  P(Z  2.47)  2(0.5  0.4932)  2(0.0068)  0.0136

Rechazar H0 dado que el valor p = 0.0136 <  = 0.05


Error Tipo II: β
• Error Tipo I
– Se comete cuando se rechaza H0 siendo esta cierta.
– Se define a través del nivel de significancia α, la probabilidad de rechazar H0 cuando esta
es cierta.
– El costo de cometer el Error Tipo I es un criterio para fijar el nivel de significancia.

¿Pero qué del error de no rechazar H0 siendo esta falsa?

• Error Tipo II: Prob(No rechazar H0 / H0 es falsa) = β


– A menor Error Tipo I, mayor Error Tipo II, sin embargo no son proporcionales, no suman 1.
– El costo de cometer este error también es un elemento en la determinación del nivel de
significancia.
– Para cada valor de α, y un valor dado al interior del rango definido por HA, se tendrá un
valor de β. Esto es, β es condicional al valor que se considere del rango definido por HA.
Error Tipo II
• El error tipo II es la probabilidad de no
rechazar la H0 cuando es falsa
Supongamos que no rechazamos H0: μ  52
cuando en realidad la media poblacional es μ = 50

50 52
Rechazar No rechazar
H0: μ  52 H0 : μ  52
Error Tipo II
(continuación)

• Supongamos que no rechazamos H0:   52 cuan-do


en realidad la media poblacional es  = 50
Este es el rango de x donde
Esta es la verdadera H0 no es rechazada
distribución para x
si  = 50

50 52
Rechazar No rechazar
H0:   52 H0 :   52
Error Tipo II
(continuación)

 Supongamos que no rechazamos H0:   52 cuan-


do en realidad la media poblacional es  = 50

Aquí,
β = P( x  “valor crítico”) si μ = 50

 β

50 52
Rechazar No rechazar
H0: μ  52 H0 : μ  52
Pasos para Calcular b
1. Especificar el parámetro de interés.
2. Formular las hipótesis.
3. Especificar el nivel de significancia.
4. Determinar el(los) valor(es) crítico(s), prueba unilateral o
bilateral.
5. Especificar el valor estipulado del parámetro de interés.
6. Calcular el valor z considerando el valor estipulado del
parámetro.
7. Usar la tabla Z para hallar b
Calculando β
• Suponer n = 64 , σ = 6 y  = 0.05
σ 6
Valor crítico  x  μ  z  52  1.645  50.766
(para H0 : μ  52) n 64

β = P(x  50.766) si μ = 50)

50 50.766 52
Rechazar No rechazar
H0: μ  52 H0 : μ  52
Calculando β
(continuación)

• Suponer n = 64, σ = 6 y  = 0.05


 
 50.766  50 
P( x  50.766)  P z    P(z  1.02)  0.5  0.3461  0.1539
 6 
 64 

Probabilidad
del error tipo II:
 β = 0.1539

50 52
Rechazar No rechazar
H0: μ  52 H0 : μ  52
Potencia de una Prueba de Hipótesis

• Se desea que b sea lo más pequeña posible


– Si la hipótesis nula es FALSA, entonces se deseará rechazarla
– Es decir, se desea que una prueba de hipótesis tenga alta
probabilidad de rechazar una hipótesis nula falsa
• La potencia de una prueba queda expresada
como:
Potencia = 1 - b

La potencia de la prueba indica la probabilidad de


rechazar una hipótesis nula dado que es falsa.
Estimación y Prueba de Hipótesis para dos
Parámetros (Poblaciones)
Estimación para dos Poblaciones
Estimación de dos
valores poblacionales

Medias Diferencia Proporciones


Poblacionales, Pareada, Poblacionales,
muestras muestras muestras
independientes pareadas independientes

Grupo 1 vs. Grupo 2 Mismo grupo (antes Proporción 1 vs.


vs. después) Proporción 2
Diferencia entre dos Medias

Medias poblaciona- Objetivo: Formar un interva-


les, muestras inde-
pendientes
* lo de confianza para estimar
la diferencia entre dos
medias poblacionales, μ1–μ2
σ1 y σ2 conocidas

La estimación puntual
σ1 y σ2 desconocidas, para la diferencia es
iguales
x1 – x2
σ1 y σ2 desconocidas,
no iguales
Muestras Independientes
• Diferentes fuentes de datos.
– No relacionados.
– Independientes.
• La muestra seleccionada de una población
no tiene efecto sobre la muestra
seleccionada de la otra población.

• Usa la diferencia entre las dos medias


muestrales.
σ1 y σ2 conocidas
Supuestos:
 Las muestras son aleatorias e independientes.
 Las distribuciones poblacionales
deben ser normales o ambos
tamaños de muestra mayores o
iguales a 30.
 Las desviaciones estándar
poblacionales son conocidas.
σ1 y σ2 conocidas
(continuación)

Cuando σ1 y σ2 son conocidas y ambas poblaciones son


normales o ambos tamaños de muestra son mayores o
iguales a 30, el estadístico de prueba es un valor z y el
error estándar de x1 – x2 es:

2 2
σ1 σ 2
σ x1 - x 2  
n1 n 2
Intervalo de Confianza (σ1 y σ2 conocidas)

El intervalo de confianza
para μ1 – μ2 es:

σ2
σ 2
x1 - x 2   z/2 1
 2
n1 n 2
Procedimiento para formar un
intervalo de confianza
1. Definir el parámetro de interés y seleccionar una muestra
independiente de cada población.

2. Fijar el nivel de confianza.

3. Obtener la estimación puntual.

4. Determinar el error estándar.

5. Determinar el valor crítico.

6. Formar el intervalo de confianza.


σ1 y σ2 desconocidas, y σ1 = σ2

Medias poblaciona- Supuestos*:


les, muestras
independientes Las muestras son aleatorias e
independientes.
σ1 y σ2 conocidas  Las poblaciones tienen distri-
bución normal.
σ1 y σ2 desconocidas,
iguales
*  Las dos desviaciones estándar
poblacionales son iguales.
σ1 y σ2 desconocidas,
no iguales *La prueba t que se presentará a demostrado ser robusta en caso
de pequeñas desviaciones de los supuestos, especialmente si las
muestras son de igual tamaño.
σ1 y σ2 desconocidas, y σ1 = σ2
(continuación)
Formando intervalos:

 Como las desviaciones estándar poblacionales son


iguales (supuesto), entonces para estimar σ combi-
namos las dos desviaciones estándar muestrales. Tal
combinación es llamada desviación estándar combi-
nada

 El estadístico de prueba es un valor t con (n1+n2–2)


grados de libertad
σ1 y σ2 desconocidas, y σ1 = σ2
(continuación)

La desviación estándar combinada es:

sp 
n1  1s12  n 2  1s 22
n1  n 2  2

El intervalo de confianza para μ1 – μ2 es:

x 1 
 x 2  t /2 sp
1 1

n1 n2
σ1 y σ2 desconocidas y σ1 ≠ σ2

Medias poblaciona- Supuestos:


les, muestras
independientes  Las poblaciones tienen
distribución normal
σ1 y σ2 conocidas  Hay argumentos para creer
que las poblaciones no
σ1 y σ2 desconocidas, tienen varianzas iguales
iguales
 Las muestras son indepen-
σ1 y σ2 desconocidas,
no iguales * dientes
σ1 y σ2 desconocidas y σ1 ≠ σ2
Formando intervalos: (continuación)

 Como se cree que las varianzas


poblacionales son diferentes,
entonces no podemos combinar
las desviaciones estándar muestrales

 El estadístico de prueba es un valor t,


los grados de libertad asociados a este
se calcula como: (s12 /n 1  s 22 /n 2 ) 2
gl 
   
 s 2 /n 2 s 2 /n 2 
 1 1  2 2 
 n1  1 n 2  1 

σ1 y σ2 desconocidas y σ1 ≠ σ2
(continuación)
Intervalo de confianza para μ1 – μ2 es:

s12 s 22
x1  x 2   t α/2 
n1 n 2

Donde los grados de libertad asociados a t/2 es:

(s12 /n 1  s 22 /n 2 ) 2
gl 
  
 s 2 /n 2 s 2 /n 2 
 1 1  2 2  
 n1  1 n  1 
 2 
Prueba de Hipótesis

Se ha visto la estimación de la diferencia entre medias poblacionales, esto


servirá de base para desarrollar el tema de:

Pruebas de Hipótesis para Dos Medias Poblacionales

¿Son dos medias poblacionales iguales?


¿Es una media poblacional superior a la media de otra población?
Prueba de Hipótesis para la Diferencia entre
Dos Medias

Casos de Muestras Independientes


Prueba de Hipótesis para la
Diferencia entre dos Medias
• Evalúa hipótesis respecto a μ1 – μ2

• Para las situaciones ya discutidas:


– Desviaciones estándar poblacionales conocidas.
– Desviaciones estándar poblacionales desconocidas.
• Asumidas iguales.
• Asumidas no iguales, diferentes.
Pruebas de Hipótesis para dos
Medias Poblacionales
Dos medias poblacionales, muestras independientes

Prueba Unilateral Izquierda: Prueba Unilateral Derecha: Prueba Bilateral:

H0: μ1  μ2 H0: μ1 ≤ μ2 H0: μ1 = μ2


HA: μ1 < μ2 HA: μ1 > μ2 HA: μ1 ≠ μ2
es decir, es decir, es decir,
H0: μ1 – μ2  0 H0: μ1 – μ2 ≤ 0 H0: μ1 – μ2 = 0
HA: μ1 – μ2 < 0 HA: μ1 – μ2 > 0 HA: μ1 – μ2 ≠ 0
Pruebas de hipótesis para μ1– μ2

Medias poblacionales, muestras independientes

σ1 y σ2 conocidas Usar el estadístico de prueba z

Usar sp para estimar σ (des-


σ1 y σ2 desconocidas, conocida). Usar el estadístico de
iguales (supuesto) prueba t con gl: n1+n2–2

σ1 y σ2 desconocidas, Usar s1 y s2 para estimar σ1 y σ2


no iguales (desconocidas). Usar el
estadístico de prueba t y
calcular los grados de libertad
requeridos
σ1 y σ2 conocidas

El estadístico de prueba para μ1–μ2 es:

z
x 1  x 2    μ1  μ 2 
2 2
σ1 σ 2

n1 n 2
Prueba de Hipótesis para dos Medias
Poblacionales: Pasos

1. Especificar el parámetro de interés.


2. Formular hipótesis.
3. Fijar el nivel de significancia ().
4. Construir la región de rechazo y establecer la
regla de decisión.
5. Calcular el estadístico de prueba y/o valor p.
6. Tomar una decisión.
7. Interpretar el resultado.
Prueba de hipótesis para μ1–μ2
Dos medias poblacionales, muestras independientes
Prueba Unilateral Izquierda: Prueba Unilateral Derecha: Prueba Bilateral:

H0: μ1 – μ2  0 H0: μ1 – μ2 ≤ 0 H0: μ1 – μ2 = 0


HA: μ1 – μ2 < 0 HA: μ1 – μ2 > 0 HA: μ1 – μ2 ≠ 0

Ejemplo: σ1 y σ2 conocidas:

  /2 /2

-z z -z/2 z/2


Rechazar H0 si z < -z Rechazar H0 si z > z Rechazar H0 si z < -z/2
ó z > z/2
σ1 y σ2 desconocidas y σ1 = σ2
El estadístico de prueba para μ1–μ2 es:

t
 x1  x 2    μ1  μ 2 
1 1
sp 
n1 n 2
Donde t tiene n1+n2–2 grados de libertad,
y

sp 
n1  1s12  n2  1s2 2
n1  n2  2
Ejemplo
σ1 y σ2 desconocidas, iguales (supuesto)
Imaginemos que ud. es un analista financiero de una compa-ñía de
corretaje. ¿Hay diferencia en el rendimiento de divi-dendos entre
las acciones de NYSE y NASDAQ? Ud. ha recolectado la siguiente
información:
NYSE NASDAQ
Tamaño muestral 21 25
Media muestral 3.27 2.53
Desv. Std. (s) 1.30 1.16

Asumiendo igualdad de varianzas


¿Hay diferencia en el rendimiento
promedio ( = 0.05)?
Calculando el estadístico de prueba

El estadístico de prueba es:

t
x1  x 2   μ1  μ 2  3.27  2.53  0
  2.040
1 1 1 1
sp  1.2256 
n1 n 2 21 25

Donde:

sp 
n1  1s12  n2  1s2 2 
21  11.30 2  25  11.16 2  1.2256
n1  n2  2 21  25  2
Solución
H0: μ1 - μ2 = 0, es decir, (μ1 = μ2)
HA: μ1 - μ2 ≠ 0, es decir, (μ1 ≠ μ2)
 = 0.05
gl = 21 + 25 - 2 = 44
Rechazar H0 Rechazar H0

0.025 0.025

Valores críticos: t = ± 2.0154 -2.015 0 2.015 t


Estadístico de prueba:
3.27  2.53
t  2.040
1 1
1.2256 
Decisión: 21 25
Rechazar H0 para  = 0.05
Conclusión:
Hay suficiente evidencia para concluir que los rendimientos
promedios son diferentes.
σ1 y σ2 desconocidas y σ1 ≠ σ2
El estadístico de prueba para μ1–μ2 es:

t
 x 1 - x 2    μ1  μ 2 
2 2
s1 s 2

n1 n 2
Donde t tiene grados de libertad:
(s12 /n 1  s 22 /n 2 ) 2
gl 
  
 s 2 /n 2 s 2 /n 2 
 1 1  2 2  
 n1  1 n 2  1 

Muestras Pareadas

Muestras Independientes

Muestras Pareadas
o Dependientes
Muestras Pareadas

• Muestra Pareada:
Muestras seleccionadas de tal manera que cada valor de una de
las muestras está vinculada con un valor de la otra muestra.

• Propósito:
Control de factores externos, no pertinentes.

• Ejemplo:
Comparar el área por galón que un nuevo tipo de pintura
puede cubrir, en relación al tipo en actual uso.

Continúa
Muestras Pareadas
• Alternativa 1:

– Seleccionar aleatoriamente una muestra de pintores que usarán el nuevo


tipo y registrar el área cubierta por galón.
– Seleccionar aleatoriamente una segunda muestra de pintores que usarán el
tipo de pintura en uso y registrar el área cubierta por galón.
– Se tendrá la comparación de medias de dos muestras independientes. El
área que cubren los pintores de la primera muestra no tienen por que influir
en la que cubren los de la segunda muestra.

Pero, ¿Qué si por casualidad en la primera muestra se seleccionaron


pintores más hábiles y de experiencia que en la segunda? ¿Cómo
controlar esta situación?

Muestras Pareadas
Muestras Pareadas

• Alternativa 2:

– Seleccione un solo grupo de pintores.


– Cada pintor seleccionado usará ambos tipos de pintura, el orden se
asignará aleatoriamente. Algunos usan primero el nuevo tipo y
después el tipo en uso; otros en forma inversa
– Se tendrá muestras pareadas, se habrá logrado controlar por el efecto
de habilidad y experiencia de los pintores.
Muestras Pareadas
Evalúa las medias de 2 poblaciones relacionadas
– Muestras pareadas o relacionadas
» ej., dos valorizaciones del mismo inmueble
– Medidas repetidas (antes vs. después)
» ej., peso antes y después de un programa de dieta
– Usa la diferencia de valores pareados:

d = x1 - x 2

• Elimina la variación entre individuos (unidades)


• Supuestos:
– Ambas poblaciones tienen distribución normal
– O, si no son normales, usar muestras grandes
Diferencias Pareadas
La ima diferencia pareada es di ,donde
di = x1i - x2i
La estimación puntual n
para la diferencia
pareada media
d i
d i 1
poblacional es d : n
n

 i
La desviación estándar
muestral de diferencias
(d  d ) 2

pareadas es sd  i 1
n 1
n es el número de pares en la muestra pareada
Diferencias Pareadas
(continuación)

El intervalo de confianza para µd es


sd
dt
n
Donde t tiene n – 1 grados n

de libertad y sd es:  i
(d  d ) 2

sd  i 1
n 1
n es el número de pares en la muestra pareada
Prueba de Hipótesis para
Muestras Pareadas
El estadístico de prueba es

d  μd
t
sd
n
n es el
número n
de pares
en la Donde t tiene n – 1 grados  i
(d  d ) 2

muestra
de libertad y sd es: sd  i 1
pareada n 1
Prueba de Hipótesis para
Muestras Pareadas
(continuación)
Muestras Pareadas

Prueba Unilateral Prueba Unilateral Prueba Bilateral:


Izquierda: Derecha:
H0: μd  0 H0: μd ≤ 0 H0: μd = 0
HA: μd < 0 HA: μd > 0 HA: μd ≠ 0

  /2 /2

-t t -t/2 t/2


Rechazar H0 si t < -t Rechazar H0 si t > t Rechazar H0 si t < -t/2
ó t > t/2
Donde t tiene n-1 g.l.
Muestra Pareada: Ejemplo
Supongamos que ud. envió a sus vendedores a un taller de
capacitación “Servicio al cliente”. ¿Fue efectiva la
capacitación? Ud. ha recolectado la siguiente información:

Número de reclamos:  di
Vendedor Antes (1) Después (2) (2) – (1) d = n
C.B. 6 4 - 2
= -4.2
T.F. 20 6 -14
M.H. 3 2 - 1
R.K.
M.O.
0
4
0
0
0
- 4 sd 
 i
(d  d ) 2

-21 n 1
 5.67
Muestra Pareada: Solución
¿Hay diferencia en los números de reclamos antes y después de la
capacitación (=0.05)?
H0: μd = 0; HA: μd  0

Rechazar H0 Rechazar H0
gl=n-1
d = - 4.2
/2 /2
Valores críticos = ± 2.7765 - 2.7765 2.7765
Estadístico de prueba:
d  μd  4 .2  0
t    1 .6 6
s d / n 5 .6 7 / 5

Decisión: No rechazar H0 (t no está en la región de rechazo)


Conclusión: No hay suficiente evidencia para concluir que hay
diferencia en los números de reclamos antes y después de la
capacitación
Dos Proporciones Poblaciones

Estimación y Pruebas de Hipótesis para las


Medias de dos Poblaciones

Estimación y Pruebas de Hipótesis para dos


Proporciones Poblacionales
Ejemplo
Uno de los fabricantes de automóviles más importantes considera el
lanzamiento al mercado de un nuevo modelo de auto. Particular interés se
tiene si hay diferencias de género en la apreciación del auto como de “alta
calidad”

Se tomó un prototipo sin identificación el cual fue sometido a la evaluación


por parte de una muestra aleatoria de hombres y de otra muestra aleatoria
de mujeres.

De interés es la diferencia entre la proporción de hombres que considera el


auto de lujo y la respectiva proporción de mujeres.
Dos Proporciones (dos
Poblaciones)
Objetivo: Formar un intervalo de confianza
para la diferencia de dos proporciones
poblacionales, π1 – π2

Supuestos:
n1π1  5 , n1(1-π1)  5
n2π2  5 , n2(1-π2)  5

La estimación puntual
para la diferencia es: p1 – p2
Intervalo de Confianza para la Diferencia de
dos Proporciones Poblacionales

El intervalo de confianza para π1 – π2 es:

p1(1 p1 ) p2 (1 p2 )
 p1  p2  z 
n1 n2
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales

Proporciones poblacionales

Prueba Unilateral Prueba Unilateral Prueba Bilateral:


Izquierda: Derecha:
H0: π1  π2 H0: π1 ≤ π2 H0: π1 = π2
HA: π1 < π2 HA: π1 > π2 HA: π1 ≠ π2
Es decir, Es decir, Es decir,

H0: π1 – π2  0 H0: π1 – π2 ≤ 0 H0: π1 – π2 = 0


HA: π1 – π2 < 0 HA: π1 – π2 > 0 HA: π1 – π2 ≠ 0
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales
(continuación)
Proporciones poblacionales
Prueba Unilateral Izquierda: Prueba Unilateral Derecha: Prueba Bilateral:

H0: π1 – π2  0 H0: π1 – π2 ≤ 0 H0: π1 – π2 = 0


HA: π1 – π2 < 0 HA: π1 – π2 > 0 HA: π1 – π2 ≠ 0

  /2 /2

-z z -z/2 z/2


Rechazar H0 si z < -z Rechazar H0 si z > z Rechazar H0 si z < -z/2
ó z > z/2
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales: Ejemplo

¿Habrá diferencia significativa entre la proporción


de hombres y mujeres que votan a favor de una
propuesta?

• En una muestra aleatoria, 36 de 72 hombres y 31


de 50 mujeres indican su voto a favor de la
propuesta

• Evaluar al nivel de significancia de 0.05


Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales
(continuación)

Desde el inicio asumimos que la


hipótesis nula es verdadera, π1 = π2. La
combinación de las dos proporciones
muestrales es llamado:
Estimador combinado para la
proporción total:
n1p1  n2p 2 x1  x 2
p 
n1  n2 n1  n2
Donde x1 y x2 son los números de observaciones de la
muestra 1 y muestra 2 con la característica de interés
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales
(continuación)

El estadístico de prueba para π1 – π2 es:

z
 p1  p2    π1  π 2 
 1 1 
p (1 p )   
 n1 n2 
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales: Ejemplo
(continuación)
• Formulación de hipótesis:

H0: π1 – π2 = 0 (las dos proporciones son iguales)


HA: π1 – π2 ≠ 0 (hay diferencia significativa entre las proporciones)

 Las proporciones muestrales son:


Hombres: p1 = 36/72 = 0.50
Mujeres: p2 = 31/50 = 0.62

 El estimado combinado para la proporción total es:


x1  x 2 36  31 67
p    0.549
n1  n 2 72  50 122
Prueba de Hipótesis para la Diferencia de
dos Proporciones Poblacionales: Ejemplo
(continuación)

Determinación de la región de rechazo:


Rechazar H0 Rechazar H0

0.025 0.025

Valores críticos = ±1.96 para =0.05 -1.96 1.96


Estadístico de prueba para π1 – π2:
z
 p1  p 2    π1  π 2  
 0.50  0.62   0   1.31
 1 1   1 1 
p (1  p)    0 .549 (1  0.549)   
 1
n n 2   72 50 

Decisión: No rechazar H0
Conclusión: La evidencia no es suficiente para concluir que hay
diferencia significativa entre las proporciones de hombres y mujeres que
votan a favor de una propuesta
Pruebas para dos muestras en
EXCEL
Para muestras independientes:
• Muestras independientes (varianzas conocidas):
– Datos | Análisis de datos | Prueba Z para medias de dos muestras
• Muestras independientes (varianzas desconocidas):
– Datos | Análisis de datos | Prueba t para dos muestras suponiendo
varianzas iguales
– Datos | Análisis de datos | Prueba t para dos muestras suponiendo
varianzas desiguales
Para muestras pareadas (distribución t):
– Datos | Análisis de datos | Prueba t para medias de dos muestras
emparejadas
Estimación de Intervalos y Prueba de
Hipótesis para Varianzas Poblaciones
Prueba de Hipótesis para Varianzas

Prueba de Hipótesis
para Varianzas

Prueba para Una Prueba para Dos


Varianza Poblacional Varianzas Poblacionales

Estadístico de prueba
Estadístico de prueba F
Chi-cuadrado
Caso de una Varianza Poblacional
• Los casos que involucran una varianza poblacional emplean uno de dos
procedimientos estadísticos:
– Prueba de hipótesis
– Estimados de intervalos de confianza

• El gerente de un banco puede creer que la varianza poblacional del tiempo de


servicio al cliente es no mayor a 36 minutos al cuadrado. Se plantea la hipótesis
nula que la varianza es mayor o igual a 36 min2 y, en base a data muestral, se
debe estar en capacidad de rechazar o no la hipótesis nula.

• Un gerente requiere tomar una muestra de los clientes del restaurante para
determinar el número de veces al mes que cenan fuera de casa. Para esto
requiere determinar el tamaño de la muestra, lo cual depende de la varianza
poblacional. Puede tomar una muestra piloto y construir un intervalo de
confianza para la estimación de la varianza poblacional.
• Lo ideal serían pruebas sobre la desviación estándar, sin embargo no se
disponen de las mismas, se debe recurrir a pruebas sobre la varianza para
a partir de las mismas inferir sobre la desviación estándar.

• Interrogantes como ¿σ2 ≤ 36? Pueden analizarse a través de pruebas de


hipótesis con los procedimientos llamados Pruebas Chi-cuadrado.

• Cuando una muestra aleatoria proviene de una población distribuida


normalmente, la distribución de la varianza muestral estandarizada es
una distribución chi-cuadrado.
Prueba de Hipótesis para Una Varianza:
Estadístico de Prueba Chi-cuadrado

El estadístico de prueba chi-cuadrado para una varianza poblacional es:

(n  1)s 2
 
2

σ 2

Donde
2 = Variable chi-cuadrada estandarizada
n = Tamaño de muestra
s2 = Varianza muestral
El estadístico de prueba estandariza
σ2 = Varianza (supuesto) la varianza muestral (similar a los
estadísticos z y t de los capítulos
anteriores)
Distribución Chi-cuadrado
• La distribución chi-cuadrado es una familia de
distribuciones, que depende de los grados de
libertad:
• g.l. = n – 1
• Supuesto: La población es normal

0 4 8 12 16 20 24 28 2 0 4 8 12 16 20 24 28 2 0 4 8 12 16 20 24 28 2

g.l. = 1 g.l. = 5 g.l. = 15


Hallando el Valor Crítico

• El valor crítico, 2 , puede obtenerse de la


Tabla Chi-cuadrado Prueba Unilateral
Derecha:
H0: σ2 ≤ σ02
HA: σ2 > σ02

0 2
No rechazar H0 Rechazar H0
2 
Prueba de Hipótesis de Una
Varianza, Chi-cuadrado

1. Formular las hipótesis en términos de s2


2. Fijar el nivel de significancia
3. Construir la región de rechazo
4. Calcular el estadístico de prueba, 2
5. Tomar una decisión
6. Interpretar los resultados
Ejemplo
• Una congeladora comercial debe mantener la
temperatura seleccionada con poca variación. Las
especificaciones indican que la desviación estándar no
debe ser mayor a 4 grados (o la varianza a 16 grados2).
• Una muestra de 16 datos
es evaluada y da una varian-
za muestral de s2 = 24. Evalúe
si la desviación estándar espe-
cificada ha sido excedida. Use
 = 0.05.
Ejemplo: Solución
Hipótesis: H0: σ2 ≤ 16, HA: σ2 > 16
Región de rechazo: Usar la tabla Chi-cuadrado para hallar el valor crítico:
2 = 24.9958 ( = 0.05 y 16–1=15 g.l.)

2 = 24.9958
 = 0.05
0 2
No rechazar H0 Rechazar H0
Estadístico de prueba:
(n  1)s 2 (16  1)24
 
2
  22.5
σ 2
16
Decisión: Como 2 = 22.5 < 24.9958 =   , no rechazamos H0
2

Conclusión: No hay evidencia significativa al nivel  = 0.05 para concluir


que la varianza excede a 16 grados2.
Prueba de Hipótesis de Una Varianza, Chi-
cuadrado: Unilateral y Bilateral

Prueba Unilateral Izquierda: Prueba Bilateral:


H0: σ2  σ02 H0: σ2 = σ02
HA: σ2 < σ02 HA: σ2 ≠ σ02

 /2
/2

0 2 0 2
Rechazar No rechazar H0 Rechazar No rechazar Rechazar H0
H0 H0 H0
21-  1-/2
2 2/2
(2L) (2U)
Estimación del Intervalo de Confianza para una
Varianza Poblacional
Intervalo de Confianza para σ2

• El intervalo de confianza para σ2 es:

/2
/2

21-/2 2/2 2
(2L) (2U)
(n  1)s 2 (n  1)s 2
Donde 2L y 2U pertenecen a la  σ 2

distribución 2 con n -1 grados de
libertad
χU
2
χL2
Intervalo de Confianza: Ejemplo
• Una muestra de 16 datos de una
congeladora da una varianza muestral de
s2 = 24.
• Formar un intervalo de confianza al 95%
para la varianza poblacional.
Intervalo de Confianza: Ejemplo
(Solución)
• Usar la tabla chi-cuadrado para hallar 2L y 2U:
( = 0.05 y 16 – 1 = 15 g.l.)

/2=0.025 /2=0.025

20.975 20.025
(2L) 6.2621 27.4884 (2U)
(n  1)s 2 (n  1)s 2 (16  1)24 (16  1)24
σ 
2
  σ2   13.096  σ 2  57.489
χ U2 χ L2 27.4884 6.2621

Estamos 95% seguros que la varianza poblacional está entre 13.096 y


57.489 grados2. (Tomando la raíz cuadrada, estamos 95% seguros que
la desviación estándar poblacional está entre 3.619 y 7.582 degrees).
Dos Varianzas Poblacionales

Prueba de hipótesis para Distribución


una Varianza poblacional Chi-cuadrado

Prueba de hipótesis para Distribución


dos varianzas poblacionales F
La Distribución F en la prueba de hipótesis

• La distribución F se genera por el ratio de dos variables


independientes chi-cuadrado. 2
s
• Dos grados de libertad: D1 y D2 . F 1
2
Los grados de libertad dependen de los tamaños de las
s 2
muestras del numerador (D1) y del denominador (D2).

• Asume que las poblaciones tienen distribución normal.

• Asume que las muestras son aleatorias e independientes.

• En la tabla F,
– La fila (tabla F) está determinada por los grados de libertad del numerador.
– La columna (tabla F) está determinada por los grados de libertad del
denominador.
Formulando el estadístico F
s12
F 2 Donde D1 = n1 – 1 ; D2 = n2 – 1
s2

• Para una prueba bilateral, ubicar siempre la varianza muestral más


grande en el numerador. Esto producirá un valor de F mayor a uno y
empujará al estadístico de prueba hacia el extremo superior de la
distibución F.

• Para una prueba unilateral, considerar la hipótesis alternativa: Ubicar en


el numerador la varianza muestral de la población que se supone (según
HA) tiene la varianza más grande.
Hallando el Valor Crítico
(continuación)

• Para una prueba bilateral usar la tabla F


correspondiente a /2
– ej., si  = 0.10, usar la tabla F con cola a la derecha
igual a 0.05

• Para una prueba unilateral, usar la tabla F


correspondiente al nivel de significancia
– ej., si  = 0.05, usar la tabla F con cola a la derecha
igual a 0.05
Prueba de Hipótesis para la Diferencia
entre Dos Varianzas: Ejemplo
Supongamos que ud. es un analista financiero de una compa-ñía de
corretaje. Además desea comparar los rendimientos de los
dividendos generados entre las acciones de NYSE y NASDAQ. Ud. ha
recolectado la siguiente información:

NYSE NASDAQ
Tamaño muestral 21 25
Media 3.27 2.53
Desv. Std. (s) 1.30 1.16

¿Hay diferencia entre las varianzas de


los rendimientos de los dividendos de
NYSE y NASDAQ para  = 0.05?
Prueba de Hipótesis para la Diferencia entre
Dos Varianzas, F: Ejemplo (Solución)

• Formular hipótesis:
H0: σ21 = σ22 (No hay diferencia entre las varianzas)
HA: σ21 ≠ σ22 (Hay diferencia entre las varianzas)
Si H0 es válida cabe
contemplar varianzas
 Hallar el valor crítico F para  = 0.05:
muestrales similares , por lo
 Numerador: tanto el ratio de las dos
varianzas será cercano a 1. Se
 D1 = n1 – 1 = 21 – 1 = 20 rechazará H0 si el ratio es
significativamente superior a 1
 Denominador:
 D2 = n2 – 1 = 25 – 1 = 24
NOTA: Asegurarse
F0.05/2, 20, 24 = 2.327 que n1 correspon-
de a la muestra con
la varianza más
grande
Prueba de Hipótesis para la Diferencia entre
Dos Varianzas, F: Ejemplo (Solución)
(continuación)

• El estadístico de prueba es: H0: σ12 = σ22


HA: σ12 ≠ σ22
s12 1.302
F 2  2
 1.256
s2 1.16
/2 = 0.025

0
 Decisión: F = 1.256 no es mayor No rechazar H0 Rechazar H0
F/2
que el valor crítico F de 2.327,
=2.327
entonces no rechazar H0

 Conclusión: No hay suficiente evidencia al nivel  = 0.05


para concluir que las varianzas poblacionales de los
rendimientos de los dividendos son diferentes.
Análisis de Varianza (ANOVA)
Motivación
• En sesiones anteriores se ha visto prueba de
hipótesis referentes a dos medias
poblacionales.
• En base a muestras de dos poblaciones se
trataba de testear si las medias poblacionales
diferían:
– Ho: u1 = u2
– HA: u1 ≠ u2
Para un nivel de significancia dado.
Motivación

• En esta sesión se enfoca el caso de testear a


través de muestras, para un nivel de
significancia dado, si las medias de tres o más
poblaciones difieren:
– Ho: u1 = u2 = u3 =…..= un
– HA: Al menos dos de las medias poblacionales
difieren.
Ejemplo

Usted desea saber si tres Club 1 Club 2 Club 3


“clubs” de golf dan diferentes 254 234 200
distancias. Para esto selec-cione 263 218 222
al azar e independien-temente 241 235 197
cinco medidas de las pruebas de 237 227 206
cada club. ¿Hay alguna 251 216 204
diferencia en las distancias
medias al nivel de significancia
de 0.05?
Alcance

Análisis de Varianza (ANOVA)

ANOVA de ANOVA de ANOVA de


Un Factor Bloques Completa- Dos Factores
mente Aleatorizados (con réplicas)
Prueba F
Prueba F
Prueba
Tukey- Prueba Fisher de
Kramer Mínima Diferencia
Significativa
Lógica del Análisis de Varianza
• El investigador controla una o más variables
independientes:
– Llamadas factores.
– Cada factor tiene dos o más niveles o tratamientos (o
categorías/ clasificaciones).

• Observar los efectos en la variable dependiente


– Repuesta a niveles de la variable independiente.

• Diseño experimental: Plan para probar hipótesis.


ANOVA de Un Factor: Ejemplo

• Variable respuesta o variable Club 1 Club 2 Club 3


dependiente: 254 234 200
Distancia alcanzada.
263 218 222
• Factores o variables independientes: 241 235 197
Club utilizado.
237 227 206
• Niveles o tratamientos (Poblaciones): 251 216 204
Tres niveles: Club 1, Club 2, Club 3.

• Diseño experimental:
Efectuar 5 lanzamientos con cada club.

• Nivel de significancia: 5%.


Diseño Completamente Aleatorizado
(Un Factor)

• Las unidades experimentales (sujetos) son


asignados al azar a los niveles del factor.
• Sólo hay un factor (variable independiente)
– Con dos o más niveles
• Analizado por
– Análisis de varianza de un factor (one-way ANOVA).
• Llamado Diseño Balanceado si todos los niveles
del factor tienen igual tamaño de muestra.
ANOVA de Un Factor: Ejemplo

Usted desea saber si tres Club 1 Club 2 Club 3


“clubs” de golf dan diferentes 254 234 200
distancias. Para esto selec-cione 263 218 222
al azar e independien-temente 241 235 197
cinco medidas de las pruebas de 237 227 206
cada club. ¿Hay alguna 251 216 204
diferencia en las distancias
medias al nivel de significancia
de 0.05?
Análisis de Varianza de Un
Factor
• Evalúa la igualdad entre las medias de dos o más poblaciones
Ejemplos: ● Tasas de accidentes para el 1er, 2do y 3er turno
● Kilometrajes esperados por galón para 5 marcas de
neumáticos

• Supuestos
– Las poblaciones tienen distribución normal
– Las poblaciones tienen igual varianza
– Las muestras son aleatorias e independientes
– La medida de los datos es de intervalo o razón
One-Way ANOVA: Hipótesis

• H0 : μ1  μ2  μ3    μk
– Todas las medias poblacionales son iguales
– Es decir, no hay efecto de tratamiento (no hay variación
entre las medias de los grupos)

• H A : No todas las medias poblaciona les son iguales


– Al menos dos medias poblacionales son diferentes
– Es decir, hay efecto de tratamiento
– No significa que todas las medias poblacionales sean
diferentes (algunos pares podrían ser iguales)
ANOVA de Un Factor

H0 : μ1  μ 2  μ 3    μ k
HA : No todas las μi son iguales

Todas las medias son iguales:


La hipótesis nula es verdadera
(No hay efecto de tratamiento)

μ1  μ2  μ3
ANOVA de Un Factor
(continuación)
H0 : μ1  μ 2  μ 3    μ k
HA : No todas las μi son iguales
Al menos dos medias son diferentes:
La hipótesis nula no es verdadera
(Hay efecto de tratamiento)

μ1  μ2  μ3 μ1  μ2  μ3
ANOVA de Un Factor
• Supuestos
– Las poblaciones tienen distribución normal
– Las poblaciones tienen igual varianza
– Las muestras son aleatorias e independientes
– La medida de los datos es de intervalo o razón
ANOVA de Un Factor
Supuestos:

• Si las muestras son del mismo tamaño, los procedimientos


ANOVA son robustos, esto es las pruebas no se ven
mayormente afectadas si los supuestos de normalidad e igual
varianza no se cumplen.

• Si las muestras no son del mismo tamaño, los procedimientos


ANOVA aún son relativamente robustos si el ratio entre la
muestra de mayor tamaño y la de menor tamaño no excede
1.5.
Diseños ANOVA

Desagregar la variación total de los datos en


términos de:
• Las variaciones explicadas por los
tratamientos o niveles.
• Las variaciones aleatorias al interior de cada
tratamiento o nivel.
Desagregando la Variación
Total
• La variación total puede ser desagregada en dos partes:

SST = SSB + SSW

SST = Suma Total de Cuadrados (variación total).


SSB = Suma de Cuadrados entre Tratamientos (variación
entre niveles del factor).
SSW = Suma de Cuadrados del Error (variación dentro de
los niveles del factor).
Desagregando la Variación
Total (continuación)

SST = SSB + SSW

Variación Total (SST) = Dispersión total de los valores


individuales.

Variación entre niveles del factor (SSB) = Dispersión


entre las medias muestrales del factor.

Variación dentro de los niveles del factor (SSW) = Dis-


persión que existe entre los datos al interior de cada nivel
del factor.
• Estas variaciones se calculan sumando las
desviaciones cuadráticas de los datos respecto
de la media relevante:

Variación = Suma( (Datoi – Media relevante)2 )


Ejemplo (Medias Relevantes)
Distancia
Club 1 Club 2 Club 3 270
254 234 200 260 •
263 218 222 ••
250 x1
241 235 197 240 •
237 227 206 • ••
230
251 216 204
220
• x2 •
x
••
210
x1  249.2 x 2  226.0 x 3  205.8
•• x3
200 ••
x  227.0 190

1 2 3
Club
ANOVA de Un Factor: Ejemplo

Club 1 Club 2 Club 3


Media Total:
254 234 200
X̿ = (254 + 263 + …..+204) / 15 = 227.0
263 218 222
SST: 241 235 197
(254 – 227)2+ (263 – 227)2+..+ (251- 227)2+ 237 227 206
(234 – 227)2+ (218 – 227)2+..+ (216 - 227)2+ 251 216 204
(200 – 227)2+ (222 – 227)2+..+ (204-227)2

SST = 5,836.0
ANOVA de Un Factor: Ejemplo
(Desarrollo)
Club 1 Club 2 Club 3 x1 = 249.2 n1 = 5
254 234 200 x2 = 226.0 n2 = 5
263 218 222 x3 = 205.8 n3 = 5
241 235 197
nT = 15
237 227 206 x = 227.0
251 216 204 k=3

SSB = 5 [ (249.2 – 227)2 + (226 – 227)2 + (205.8 – 227)2 ] = 4,716.4


SSW = (254 – 249.2)2 + (263 – 249.2)2 +…+ (204 – 205.8)2 = 1,119.6

SST = SSB + SSW


5,836.0 = 4,716.4 + 1,119.6
Desagregando la Variación
Total (continuación)

Variación Total (SST)

Variación Debido Variación Debido al


= al Factor (SSB) + Muestreo Aleatorio (SSW)

Referida comúnmente como: Referida comúnmente como:


 S.C. entre Niveles del Factor  S.C. dentro de cada Nivel del
 S.C. Explicada Factor
 Variación Entre Grupos  S.C. del Error
 S.C. no Explicada
 Variación dentro de Grupos
Variación Total (SST)
SST = SSB + SSW
k ni
SST   ( x ij  x )2
i1 j1
Donde:
SST = Suma total de cuadrados
k = Número de poblaciones (niveles)

ni = Tamaño muestral de la población i.


xij = jma medida de la muestra correspondiente a la
población i.
x = Gran media (media de todos los datos)
Variación Total (SST)
(continuación)

SST  ( x11  x)2  ( x12  x)2  ...  ( xknk  x)2


Variación entre Niveles del Factor
(SSB)
SST = SSB + SSW
k
SSB   ni ( x i  x ) 2

i1
Donde:
SSB = Suma de cuadrados entre tratamientos
k = Número de poblaciones (niveles)

ni = Tamaño muestral de la población i.


xi = Media muestral de la población i.
x = Gran media (media de todos los datos)
Variación entre Niveles del Factor
(SSB) (continuación)

k
SSB   ni ( x i  x ) 2

i1

SSB
Variación Debido a Diferencias
MSB 
entre las Poblaciones
k 1
Media Cua-
SSB
drática entre =
Grados de libertad
Tratamientos

i j
Variación entre Niveles del Factor
(SSB) (continuación)

SSB  n1( x1  x)  n2 ( x 2  x)  ...  nk ( xk  x)


2 2 2
Variación dentro de los Niveles del
Factor (SSW)
SST = SSB + SSW
k ni
SSW    ( xij  xi ) 2
i 1 j 1
Donde:
SSW = Suma de cuadrados del error
k = Número de poblaciones
ni = Tamaño de la muestra de la población i
xi = Media muestral de la población i
xij = jma medida de la muestra correspondiente
a la población i.
Variación dentro de los Niveles del
Factor (SSW) (continuación)

k nj
SSW    ( x ij  x i ) 2

i1 j1
SSW
Calculando la variación
MSW 
dentro de cada grupo y
luego sumando todas nT  k
estas Media
SSW
Cuadrática = Grados de libertad
del Error

i
Variación dentro de los Niveles del
Factor (SSW) (continuación)

SSW  ( x11  x1 )  ( x12  x1 )  ...  ( xknk  xk )


2 2 2
ANOVA de Un Factor: Ejemplo
(Desarrollo)
Club 1 Club 2 Club 3 x1 = 249.2 n1 = 5
254 234 200 x2 = 226.0 n2 = 5
263 218 222 x3 = 205.8 n3 = 5
241 235 197
nT = 15
237 227 206 x = 227.0
251 216 204 k=3

SSB = 5 [ (249.2 – 227)2 + (226 – 227)2 + (205.8 – 227)2 ] = 4,716.4


SSW = (254 – 249.2)2 + (263 – 249.2)2 +…+ (204 – 205.8)2 = 1,119.6

MSB = 4716.4 / (3-1) = 2,358.2 2358.2


F  25.275
MSW = 1119.6 / (15-3) = 93.3 93.3
One-Way ANOVA: Tabla
Suma de Media Cua- Estadístico
Fuente de Cuadrados Grados de
Variación libertad, gl drática (MS) F
(SS)
Entre SSB MSB
SSB k-1 MSB =
Niveles k - 1 F = MSW
Dentro de SSW
SSW nT - k MSW =
Niveles nT - k Estadístico
SST = de prueba F,
Total nT - 1 Hartley
SSB+SSW
k = Número de poblaciones
nT = Suma de los tamaños de muestra de todas las poblaciones
Ejemplo: Tabla
Suma de Media Cua- Estadístico
Fuente de Cuadrados Grados de
Variación libertad, gl drática (MS) F
(SS)
4716.4 MSB
Entre k–1 MSB = F = MSW
2
SSB 3–1=2 2358.2
Niveles MSB = 2358.2 F = 93.3
nT - k 1193.6 F = 25.75
Dentro de MSW = 12
SSW 15 – 3 = 12 MSW = 93.3
Niveles Estadístico
SST = nT - 1 de prueba F,
Total Hartley
SSB+SSW 15 – 1 = 14
k = Número de poblaciones
nT = Suma de los tamaños de muestra de todas las poblaciones
ANOVA de Un Factor: Estadístico de
prueba F
H0: μ1= μ2 = … = μ k
HA: Al menos dos medias poblacionales son diferentes

• Estadístico de prueba: MSB


F
MSW
MSB: Media cuadrática entre tratamientos
MSW: Media cuadrática dentro de tratamientos
• Grados de libertad
– glnumerador = k – 1 (k = Número de poblaciones)
– gldenominador = nT – k (nT = Suma de todos los tamaños de muestra)
ANOVA de Un Factor: Interpretación
del estadístico F
• El estadístico F es la razón de la media cuadrática
entre tratamientos y la media cuadrátrica dentro
de tratamientos
– La razón siempre debe ser positiva
– glnumerador = k -1, comúnmente será pequeño
– gldenominador = nT – k, comúnmente será grande

La razón debería estar cerca a 1 si


H0: μ1= μ2 = … = μk es verdadera
La razón debería ser más grande que 1 si
H0: μ1= μ2 = … = μk es falsa
ANOVA de Un Factor: Ejemplo
(Solución
H0: μ1 = μ2 = μ3; HA: Al menos dos son diferentes
 = 0.05
F0.05 = 3.885 (Valor crítico)
glnumerador= 2
gldenominador= 12  = 0.05

0 No rechazar H0 Rechazar H0
Estadístico de prueba:
MSB 2358.2
F   25.275
MSW 93.3
Decisión:
Rechazar H0 para  = 0.05
Conclusión:

Hay suficiente evidencia para concluir que al menos dos medias


son diferentes
ANOVA: Pasos

1. Especificar el parámetro de interés.


2. Formular hipótesis.
3. Fijar el nivel de significancia, .
4. Seleccionar muestras aleatorias e independientes
• Calcular las medias muestrales y la gran media.
5. Determinar la regla de decisión.
6. Verificar los supuestos: Normalidad e igualdad de
varianzas.
7. Crear la tabla ANOVA.
8. Tomar una decisión e interpretar resultados.
ANOVA de un Factor
• En el ejemplo de los club de golf se llegó a la conclusión de
que hay suficiente evidencia para concluir que al menos dos
medias son diferentes.

¿Pero cuáles?
• El problema se puede abordar estimando intervalos de
confianza para todos los posibles pares de medias
poblacionales:

x 1 
 x 2  t /2 sp
1 1

n1 n2
En estos intervalos de confianza se considera la desviación estándar del pool de las
muestras involucradas:

sp 
n1  1s12  n 2  1s 22
n1  n 2  2

Sin embargo, en este pool solo interviene información de dos muestras, se pierde la
información de las muestras no consideradas, las cuales se asume tienen igual
varianza.

Una alternativa es estimar la varianza a través de la raíz cuadrada de MSW, de esta


forma se estaría considerando toda la información disponible.

Una mejor opción es el procedimiento Tukey-Kramer para comparaciones múltiples.


Comparaciones Multiples: Proceso
de Tukey-Kramer
• Indica qué medias poblacionales son
significativamente diferentes
– Ejemplo: μ1 = μ2  μ3
– Se realiza después del rechazo de igualdad de
medias en el ANOVA
• Permite comparaciones por pares
– Compara las diferencias absolutas entre cada par
de medias muestrales con un rango crítico

μ1= μ2 μ3 x
Proceso de Tukey-Kramer: Rango
Crítico

MSW  1 1 
Rango Crítico  q 
2  n i n j 

Donde:
q = Valor perteneciente a “studentized range table”
con k y nT - k grados de libertad para el nivel
de significancia deseado .
MSW = Media cuadrática del error
ni y nj = Tamaños de muestras de las poblaciones
(niveles) i y j
Proceso de Tukey-Kramer: Ejemplo
1. Calcular diferencias absolutas
Club 1 Club 2 Club 3 entre cada par de medias:
254 234 200
263 218 222 x1  x 2  249.2  226.0  23.2
241 235 197 x1  x 3  249.2  205.8  43.4
237 227 206
251 216 204 x 2  x 3  226.0  205.8  20.2

2. Hallar el valor q de la “studentized range table” con k


y nT - k grados de libertad para el nivel de
significancia deseado (=0.05)

Studentized Range.pdf qα  3.77


Proceso de Tukey-Kramer: Ejemplo
(continuación)
3. Calcular el Rango Crítico:
MSW  1 1  93.3  1 1 
Rango crítico  q α   3.77     16.285
 
2  ni n j  2 5 5

4. Comparar: x1  x 2  23.2  16.285


x1  x 3  43.4  16.285
x 2  x 3  20.2  16.285

5. Todas las diferencias absolutas son mayores que


el rango crítico. Por lo tanto, hay diferencia
significativa entre cada par de medias al nivel de
significancia de 0.05.
ANOVA
de
Bloques Completamente
Aleatorizados
ANOVA de Bloques Completamente Aleatorizados

• Para el otorgamiento de sus créditos el Citizen’s State Bank (CSB) usa regularmente los
servicios de tres compañías valorizadoras de bienes inmuebles. El banco está interesado en
averiguar si en promedio alguna de estas compañías tiende a sobre valorar o subvaluar los
inmuebles.

• Una posiblidad es aplicar One-way ANOVA con la hipótesis nula de que la valorización
promedio de las tres compañías son iguales. Basta con asignar muestras aleatorias a cada
una de las compañias y testear la hipótesis a través del procedimiento referido.

• Sin embargo, puede ocurrir que, por eventos del azar, una compañía reciba una muestra
diferente a las otras en términos de casas más lujosas, grandes, de mejor vecindario, etc.

• Se requiere controlar por esta variabilidad en el tipo de casas. Para esto CSB selecciona
aleatoriamente una muestra de propiedades y solicita la valorización de la misma muestra a
las tres compañías. Cada propiedad constituye un bloque.

• Se diseña un experimento ANOVA de Bloques Completamente Aleatorizados.


ANOVA de Bloques Completamente
Aleatorizados
• Como en el ANOVA de un factor, evaluaremos la igualdad de
medias poblacionales (para diferentes niveles de un factor,
por ejemplo)...

• ...pero esta vez se controlará la posible variación debido a un


segundo factor (con dos o más niveles)

• Se usa cuando más de un factor puede influir al valor de la


variable dependiente, pero solamente uno es de mayor
interés.

• Los niveles del factor secundario son llamados bloques.


ANOVA de Bloques Completamente
Aleatorizados
(continuación)

• Supuestos
– Las poblaciones son normalmente distribuidas.
– Las poblaciones tienen varianzas iguales.
– Las observaciones dentro de las muestras son independientes.
– La medida de los datos debe ser de intervalo o razón.
• Ejemplos
– Evaluar 5 rutas a un mismo destino a través de 3 diferentes
compañías de taxi para saber si existe diferencia.
– Determinar el mejor programa de capacitación (de 4 opciones)
para varios departamentos dentro de una compañía.
Ejemplo

• FTE brinda entrenamiento en gestión de proyectos y ha desarrollado tres


pruebas distintas de 1000 puntos para la evaluación de los participantes a su
entrenamiento. FTE desea evaluar si las tres prueba tienen el mismo grado de
dificultad, en términos de que, en promedio, producen notas similares.

• Se diseña un experimento:
– Se seleccionan en forma aleatoria una muestra de 14 individuos que han
recibido el entrenamiento.
– Se hace rendir a cada individuo las tres pruebas y, para controlar un posible
sesgo por experiencia adquirida, el orden en que se rinden las tres pruebas
es aleatoriamente asignado a cada individuo.
– Se aplica una prueba ANOVA de bloque completamente aleatorizado.
Ejemplo
Individuo Exam 1 Exam 2 Exam 3 Media de Bloque

1 830 647 630 702.33


2 743 840 786 789.67
3 652 747 730 709.67
4 885 639 617 713.67
5 814 943 632 796.33
6 733 916 410 686.33
7 770 923 727 806.67
8 829 903 726 819.33
9 847 760 648 751.67
10 878 856 668 800.67
11 728 878 670 758.67
12 693 990 825 836.00
13 807 871 564 747.33
14 901 980 719 866.67

Media de Tratamiento 793.57 849.50 668.00 770.36 Gran Media


Desagregando la Variación Total
• La variación total ahora puede ser desagregada
en tres partes:

SST = SSB + SSBL + SSW

SST = Suma total de cuadrados


SSB = Suma de cuadrados entre niveles del
factor de interés
SSBL = Suma de cuadrados entre bloques
SSW = Suma de cuadrados dentro de los
niveles
Suma de Cuadrados entre Bloques

SST = SSB + SSBL + SSW

b
SSBL   k( x j  x )2
j1
Donde:
k = Número de niveles del factor de interés: 3
b = Número de bloques: 14
xj = Media muestral del jmo bloque: Ver Tabla
x = Gran media (media de todos los datos): 770.36
Ejemplo
Individuo Exam 1 Exam 2 Exam 3 Media de Bloque

1 830 647 630 702.33 13,882.88


2 743 840 786 789.67 1,118.24
3 652 747 730 709.67 11,051.04
4 885 639 617 713.67 9,642.40
5 814 943 632 796.33 2,023.84
6 733 916 410 686.33 21,181.44
7 770 923 727 806.67 3,954.52
8 829 903 726 819.33 7,195.16
9 847 760 648 751.67 1,048.32
10 878 856 668 800.67 2,755.48
11 728 878 670 758.67 410.20
12 693 990 825 836.00 12,925.83
13 807 871 564 747.33 1,590.68
14 901 980 719 866.67 27,824.92

Media de Tratamiento 793.57 849.50 668.00 770.36 116,604.98


SST 614,641.60 Gran Media SSBL
SSB 241,912.70
SSW 256,123.90
Desagregando la Variación Total

 La variación total ahora puede ser desagregada


en tres partes:

SST = SSB + SSBL + SSW

SST y SSB son calcula- SSW = SST – (SSB + SSBL)


das como se realizó en
One-Way ANOVA
Desagregando la Variación Total

 La variación total ahora puede ser desagregada


en tres partes:

SST = SSB + SSBL + SSW

614,641.6 = 241,912.7 + 116,605.0 + 256,123.9


Medias Cuadráticas

SSBL
MSBL  Media Cuadrática entre Bloques 
b 1

SSB
MSB  Media Cuadrática entre Niveles (F.P) 
k 1

SSW
MSW  Media Cuadrática del Error 
(k  1)(b  1)
Medias Cuadráticas

SSBL 116,605
MSBL  M. C. entre Bloques    8,969.6
b 1 14  1

SSB 241,912.7
MSB  M.C.entre Niveles (F.P)    120,956
k 1 3 1

SSW 256,124
MSW  M.C. del Error    9,851
(k  1)(b  1) (3  1)(14  1)
ANOVA de Bloques Completa-
mente Aleatorizados: Tabla
Fuente de SS gl MS Estadístico
Variación F

Entre MSBL
SSBL b-1 MSBL
Bloques MSW
Entre Ni- MSB
SSB k-1 MSB
veles (F.P) MSW

Error SSW (k–1)(b-1) MSW

Total SST nT - 1

12-300
ANOVA de Bloques Completa-
mente Aleatorizados: Tabla
Fuente de SS gl MS Estadístico
Variación F
SSBL b-1 MSBL MSBL / MSW
Entre 8,970 / 9,851 = 0.91
14 – 1 = 13 8,969.6
Bloques 116,605

SSB k-1 MSB MSB / MSW


Entre Ni-
veles (F.P) 241,913 3–1=2 120,956.4 120,956 / 9,851 =12.28

SSW (k–1)(b-1) MSW


Error 256,124 (3–1)(14-1)=26 9,850.9
SST nT - 1
Total 614,642 42 – 1 = 41

12-301
Evaluación de Bloques
H 0 : μ b1  μ b2  μ b3  ...
HA : No todas las medias de los bloques son iguales

MSBL Grados de libertad:


F= = 0.9105
MSW glnumerador = b – 1 = 13
gldenominador = (k – 1)(b – 1) = 26

Rechazar H0 si F > F
Rechazar H0 si F = 0.9105 > F=0.05 = 2.15
En base a la información, no se puede rechazar Ho. Por lo tanto, no se
puede afirmar que la consideración de bloques era necesaria
Evaluación del Factor Principal
H 0 : μ1  μ 2  μ 3  ...  μ k
HA : Al menos dos medias poblaciona les difieren

MSB Grados de libertad:


F= = 12.28 glnumerador = k – 1 = 2
MSW gldenominador = (k – 1)(b – 1) = 26

Rechazar H0 si F > F
Rechazar H0 si F = 12.28 > F=0.05 = 3.40
A pesar que el bloqueo no fue efectivo, la data permite rechazar la hipótesis nula y
concluir que los tres exámenes no todos producen la misma nota promedio
ANOVA de Bloques Completamente Aleatorizados

• Si la prueba de hipótesis indica que el bloqueo no era necesario, la


probabilidad del error Tipo II, para la hipótesis principal, habría sido,
innecesariamente, incrementada. Esto puede conducir a no rechazar la
hipótesis nula de la prueba principal, cuando en realidad debería
haberse rechazado.

• Si el bloqueo no era necesario, siga las siguientes reglas:


– Si se rechaza la hipótesis nula principal, no hay problema. Proceda
con su análisis y tome la decisión pertinente.
– Si no se rechaza la nula principal, rehaga la prueba sin bloqueo.
Efectúe un one-way ANOVA con muestras independientes.
Prueba Fisher de Mínima Diferencia
Significativa
• Para evaluar qué medias poblacionales son
significativamente diferentes:
– Ejemplo: μ1 = μ2 ≠ μ3.
– Se realiza después del rechazo de la igualdad de
medias en un diseño ANOVA bloques completos
aleatorizados.
• Permite comparaciones por pares
– Compara la diferencia absoluta entre las medias
con la LSD (Least Significant Difference)

1= 2 3 x
Prueba Fisher de Mínima Diferencia
Significativa (LSD)

2 2
LSD  t/2 MSW  2.06 9,851  77.11
b 14

Donde:
t/2 = Valor de la cola derecha de la distribución t para /2 y
(k - 1)(b - 1) grados de libertad = 26
MSW = Media cuadrática del error = 9,851
b = Número de bloques = 14
k = Número de niveles del factor principal = 3

NOTA: Es similar al proceso de Tukey-Kramer


Prueba Fisher de Mínima Diferencia
Significativa (LSD)
(continuación)

2
LSD  t/2 MSW  77.11
b

¿Es x i  x j  LSD ? Comparar:


• Si la diferencia absoluta entre dos x1  x 2  794  849  56
medias es mayor que LSD,
entonces hay una diferencia x1  x 3  794  668  126
significativa entre el par de medias
al nivel de significancia fijado. x 2  x 3  849  668  181
• En base a la data se concluye que
la nota media del examen 1 es etc...
mayor a la del examen 3, y la del
examen 2 mayor a la del examen 3
Introducción al Análisis de Correlación y
de Regresión Lineal
Correlación y Regresión lineal

Se dan situaciones donde el análisis involucra


considerar la relación de dos o más variables…..
Ejemplos
• Un analista financiero podría estar interesado en la relación entre el
comportamiento de los precios de las acciones y la política de dividendos
de las compañías del mercado de valores.

• Un gerente de ventas puede estar interesado en examinar la relación


entre las ventas y el gasto en publicidad.

• El gerente de créditos de un banco podría estar interesado en la relación


entre el precio de una casa y diversos factores, como su área,
antigüedad, etc.

El análisis de correlación y el de regresión lineal son técnicas estadísticas


de aplicación difundida para estas situaciones.
Gráficos de Dispersión
• Un gráfico de dispersión (o diagrama de dispersión) es usado
para mostrar la relación entre dos variables cuantitativas.

• La relación lineal puede ser:


• Positiva – cuando “x” crece, “y” crece
» Cuando la inversión en publicidad crece, las
ventas crecen.
• Negativa – cuando “x” crece, “y” decrece
» Cuando el gasto crece, el ingreso neto decrece.
Gráficos de Dispersión: Ejemplo
Relaciones lineales Relaciones curvilíneas

y y

x x

y y

x x
Gráficos de Dispersión: Ejemplo
(continuación)
Relaciones fuertes Relaciones débiles

y y

x x

y y

x x
Gráficos de Dispersión: Ejemplo
(continuación)
No hay relación

x
Coeficiente de Correlación

• La correlación mide la intensidad de la asociación lineal (relación lineal)


entre dos variables.
– Enfocada solamente en la intensidad de la relación.
– No implica relaciones de causa-efecto.

• El coeficiente de correlación muestral r es una medida de la intensidad de


la relación lineal entre dos variables, basado en observaciones muestrales.

• Se tiene una correlación espuria cuando existe una asociación lineal entre
variables aparentemente no relacionadas.
– Ejemplo, la correlación entre las ventas de las compañías y el número
de hijos que tienen los empleados.
Características de r
• No tiene unidad de medida.
• Varía entre -1 y 1.
• La cercanía a -1 indica fuerte relación lineal
negativa.
• La cercanía a 1 indica fuerte relación lineal
positiva.
• La cercanía a 0 indica débil relación lineal.
• +1 ó -1 son correlaciones perfectas donde
todos los datos (puntos) caen sobre una
línea recta.
Ejemplos de Valores
Aproximados de r
y y y

x x x
r = -1 r = -.6 r=0
y y

x x
r = +.3 r = +1
Calculando el Coeficiente de
Correlación
Coeficiente de correlación muestral:

r
 ( x  x)( y  y)
[ ( x  x ) ][  ( y  y ) ]
2 2

O el equivalente algebraico:
n xy   x  y
r
[n( x 2 )  ( x )2 ][n(  y 2 )  ( y )2 ]
Donde:
r = Coeficiente de correlación muestral
n = Tamaño muestral
x = Valor de una variable (eje horizontal)
y = Valor de la otra variable (eje vertical)
Correlación: Ejemplo
Altura Diámetro
del árbol del tronco
y x xy y2 x2
35 8 280 1225 64
49 9 441 2401 81
27 7 189 729 49
33 6 198 1089 36
60 13 780 3600 169
21 7 147 441 49
45 11 495 2025 121
51 12 612 2601 144
=321 =73 =3142 =14111 =713
Correlación: Ejemplo
(continuación)

Gráfico de dispersión n xy   x  y
Altura del r
árbol, y
70
[n(  x 2 )  (  x) 2 ][n(  y 2 )  (  y) 2 ]
60

8(3142)  (73)(321)
50 
40
[8(713)  (73)2 ][8(14111)  (321)2 ]

 0.886
30

20

10

0
r = 0.886 → Asociación lineal positiva
0 2 4 6 8 10 12 14
relativamente fuerte entre x e y
Diámetro del tronco, x
Correlación: Usando Excel

Pasos en Excel para calular la correlación


Datos / Análisis de datos / Coeficiente de correlation:

Correlación entre altura del


árbol y diámetro del tronco
Prueba de Significancia para la
Correlación
• Hipótesis
Supuestos:
H 0: ρ = 0 (No hay correlación) La medida de los datos es
HA: ρ ≠ 0 (Existe correlación) de intervalo o de razón
x e y están normalmente
distribuidos
La letra griega ρ (rho) representa el
coeficiente de correlación poblacional

• Estadístico de prueba
r (con n – 2 grados de libertad)
t
1 r 2
n2
Se pierde 1 grado de libertad por
cada media muestral
Prueba de Significancia para la
Correlación (continuación)
¿Es significativa la relación lineal entre las
alturas de los árboles y los diámetros de sus
troncos al nivel de significancia de 0.05?

H0: ρ = 0 (No hay correlación)


H1: ρ ≠ 0 (Existe correlación)
 =0.05 , gl = 8 - 2 = 6

r 0.886
t   4.68
1 r2 1  0.8862
n2 82
Prueba de Significancia para la
Correlación (continuación)
Región de rechazo:
g.l. = 8-2 = 6

/2=0.025 /2=0.025

Rechazar H0 No rechazar H0 Rechazar H0


-tα/2 tα/2
0
-2.4469 2.4469
Estadístico de prueba: r 0.886
t    4.68
1 r2 1  0.886 2
n2 82
Decisión: Como t = 4.68 > 2.45 = tα/2 , entonces se rechaza H0

Conclusión: Hay suficiente evidencia para concluir que existe relación lineal
significativa entre las alturas de los árboles y los diámetros de sus troncos al
nivel de significancia de 0.05.
Prueba de Significancia para la Correlación

• La prueba t para la determinación de si la correlación poblacional es


significativamente diferente de cero requiere de los siguientes dos
supuestos:
– La data es de intervalo o de ratio.
– Las dos variables (x e y) se distribuyen según una distribución normal
bivariada (la distribución conjunta es normal).

• Sin embargo, respecto del supuesto de normalidad, la prueba es robusta;


esto es, las inferencias son correctas, aún cuando se tenga algunas
desviaciones respecto de la distribución mormal.
Advertencia
• La correlación entre dos variables no implica ninguna relación de causa-efecto. El
cálculo de una alta correlación positiva entre años de experiencia y ventas en los
vendedores de una empresa no es una prueba estadística que los años de
experiencia tenga como consecuencia mayores ventas, solo significa que
marchan en forma conjunta.
• Para un período determinado se podría calcular una alta correlación entre el
salario promedio de los ingenieros del Ecuador y el precio de las uvas en Francia,
esto de ninguna forma significa que lo uno cause lo otro. Se está ante lo que se
denomina correlación espúrea.
• La correlación también se puede dar por los efectos de un factor común que
incide sobre las dos variables en cuestión. Por ejemplo las mayores ventas de los
vendedores de mayor experiencia podría ser debido a que los vendedores de
más edad se les asigna los mejores territorios.
• Relaciones de causa-efecto requieren de construcción de modelos vinculados al
fenómeno que se analiza.
Regresión Lineal Simple

Suponga que se ha calculado y validado la correlación entre los años de venta


de los vendedores y su volumen de ventas, se quiere analizar esa relación. El
método estadístico para este fin es el Análisis de Regresión.

Si solo se tienen dos variables la técnica se refiere como Análisis de Regresión


Lineal Simple, el cual se ve en esta sesión. La siguiente sesión considerará el
caso del Análisis de Regresión Lineal Múltiple.
Regresión Lineal

X, Y Análisis
X, Y
Correlacionadas
Regresión Lineal
y = β0 + β1x + ε
Introducción al Análisis de Regresión

• El análisis de regresión es usado para:


– Predecir el valor de una variable dependiente (y) basado
en el valor de al menos una variable independiente (x).
– Explicar el impacto de cambios de una variable
independiente sobre la variable dependiente.
Variable dependiente: Variable que se desea explicar.
Variable independiente: Variable usada para explicar
la variable dependiente.
Modelo de Regresión Lineal
Simple
• Sólo una variable independiente, x.

• La relación entre x e y es descrita por una


función lineal.

• Se asume que los cambios en y son causados


por cambios en x.
Tipos de Regresión Lineal
Relación Lineal Positiva Relación NO Lineal

Relación Lineal Negativa No Hay Relación


Modelo de Regresión Lineal
Simple (Poblacional)

Pendiente
Intercepto y de regresión Variable
poblacional independiente Error
poblacional
aleatorio,
Variable

y  β0  β1x  ε
o residual
dependiente

Componente lineal Componente


error aleatorio
Supuestos de la Regresión
Lineal
• Los términos de error (ε) son realizaciones estadísticamente
independientes de una variable aleatoria para cada nivel de x.
• Para un valor dado de x, pueden existir muchos valores de y por lo
tanto muchos valores de e. La distribución de los posibles errores para
cualquier valor de x es normal.
• Las distribuciones de los valores de e tienen igual varianza para todos
los valores de x.
• Las medias de la variable dependiente, y, para todos los valores
especificados de la variable independiente, x, pueden ser conectados
por una línea recta la cual es el componente lineal del modelo de
regresión poblacional.
Regresión Lineal Poblacional
(continuación)

y
y  β0  β1x  ε  y/ x
 β 0  β1x
Valor observado
de y para xi

εi Pendiente = β1
Valor estimado Error aleatorio pa-
de y para xi ra este valor de x

Intercepto = β0

0 xi x
Coeficientes del Modelo Poblacional

• Pendiente β1
Cambio promedio en la variable dependiente (y) ante
una variación unitaria de la variable independiente (x).
Cambio en μy/x ante una variación unitaria de x.

• Intercepto β0
Valor promedio de la variable dependiente (y) cuando la
variable independiente (x) es cero. Interpretación válida
si x puede asumir el valor 0, caso contrario, no se tiene
una interpretación válida.
Regresión Lineal Estimada
La línea de regresión muestral proporciona un
estimado de la línea de regresión poblacional

Valor Estimado del Estimado de la


predecido intercepto de pendiente de
de y regresión regresión

ŷ  b0  b1x
Variable
independiente

Los términos de errores individuales (ei) tienen una media


de cero
Interpretación de la Pendiente y del
Intercepto
Modelo regresión lineal poblacional: y  β 0  β1x  ε
Componente lineal poblacional:  y / x  β 0  β1x
Modelo regresión lineal muestral: y  b 0  b1x  e
Regresión lineal muestral: ŷ  b0  b1x

• b0 es el estimado del valor promedio de y cuando el


valor de x es cero.

• b1 es el estimado del cambio en el valor promedio de y


que resulta de un cambio de una unidad en x.
Criterio de Mínimos Cuadrados
• b0 y b1 son obtenidos hallando los valores de b0
y b1 que minimizan la suma de cuadrados de los
residuales (error)

e 2
  (y ŷ) 2

  (y  (b 0  b1x)) 2
Ecuación de Mínimos
Cuadrados
• Las ecuaciones para b1 y b0 son:


El equivalente algebraico
(x  x)(y  y) para b1 es:
b1 
 (x  x) 2

 xy   x y
b1  n
y (
x  n
2  x ) 2

b0  y  b1x
Regresión de Mínimos Cuadrados:
Propiedades

• La suma de los residuales de la línea de


regresión de mínimos cuadrados es siempre
cero.
• La suma de los cuadrados de los residuales es
la mínima.
• La línea de regresión siempre pasa a través
del punto ( x , y ).
• Los coeficientes de mínimos cuadrados son
estimados insesgados de b0 y b1
Hallando la Ecuación de
Mínimos Cuadrados
• Los coeficientes b0 y b1 usualmente son
hallados usando programas como Excel, SPSS,
etc.

• Otras medidas de regresión también son


calculadas como parte del análisis de regresión
de los programas.
Regresión Lineal Simple: Pasos

1. Especificar la variable independiente (x) y la


dependiente (y)

2. Desarrollar un gráfico de dispersión

3. Calcular el coeficiente de correlación

4. Determinar la ecuación de regresión lineal


Regresión Lineal Simple:
Ejemplo
• Un agente inmobilario desea examinar la relación entre
los precios de venta de casas y sus áreas (pies
cuadrados)

• Una muestra al azar de 10 casas fue seleccionada


– Variable dependiente (y) = Precio ($1000s)
– Variable independiente (x) = Área (pies cuadrados)
Datos Muestrales para el Modelo de
Precios de Casas
Precio de casa, $1000s Área, pies cuadrados
(y) (x)
245 1400
312 1600
279 1700
308 1875
199 1100
219 1550
405 2350
324 2450
319 1425
255 1700
Presentación Gráfica
• Modelo de precio de casa: Gráfico de
dispersión y línea de regresión

Pendiente
= 0.10977

Intercepto
= 98.248

Precio de casa  98.24833  0.10977 (área)


Interpretación del estimado del
intercepto, b0
Precio de casa  98.24833  0.10977 (área)

• b0 es el estimado del valor promedio de y


cuando el valor de x es cero (si x = 0 está en el
rango de los valores observados de x)
– Como no hay casas que tengan de área 0 pies cua-drados,
entonces b0 = 98.24833 indica que, para las casas cuyas
áreas estén dentro del rango observado, $98,248.33 es la
porción del precio promedio
de de la casa no explicado por el área.
Interpretación del estimado de la
pendiente, b1
Precio de casa  98.24833  0.10977 (área)

• b1 mide el estimado del cambio en el valor


promedio de “y” que resulta de un cambio de
una unidad de “x”
– b1 = 0.10977 indica que el valor promedio de una
casa se incrementa en 0.10977($1000) =
$109.77, por cada unidad de pie cuadrado
adicional.
Variación Explicada y No
Explicada
• La variación total se desagrega en dos partes:

SST  SSE  SSR


Suma Total de Suma de Cuadra- Suma de Cuadra-
Cuadrados dos del Error dos de Regresión

SST  ( y  y)2 SSE  ( y  ŷ)2 SSR  ( ŷ  y)2


Donde:
y = Valor promedio de la variable dependiente
y = Valor observado de la variable dependiente
ŷ = Valor predecido de y para un valor x dado
Variación Explicada y
No Explicada
(continuación)

• SST = Suma Total de Cuadrados


– Mide la variación de los valores yi respecto a su media y
• SSE = Suma de Cuadrados del Error
– Variación atribuible a otros factores no incluidos en la
relación entre x e y
• SSR = Suma de Cuadrados de Regresión
– Variación explicada atribuible a la relación lineal entre x e
y
Variación Explicada y
No Explicada
(continuación)
y
yi 
 2
SSE = (yi - yi ) y
_
SST = (yi - y)2

y  _2
_ SSR = (yi - y) _
y y

Xi x
Coeficiente de Determinación, R2
• El coeficiente de determinación es la porción de la
variación total de la variable dependiente que es
explicada por su relación lineal con la variable
independiente

• El coeficiente de determinación es también


llamado R-cuadrado y es denotado como R2

SSR
R 2 donde 0  R2  1
SST
Coeficiente de Determinación, R2
(continuación)
Coeficiente de determinación
SSR Suma de cuadrados explicada por la regresión
R 
2

SST Suma total de cuadrados

Nota: Para el caso de una sola variable independiente, el


coeficiente de determinación es

Donde:
R r2 2

R2 = Coeficiente de determinación
r = Coeficiente de correlación muestral
Ejemplos de Valores R2

y
R2 = 1

Relación lineal perfecta


entre x e y:
x
R2 = 1
y El100% de la variación en
y es explicada por la
variacion en x

x
R2 =1
Ejemplos de Valores R2
(continuación)

y
0 < R2 < 1

Relación lineal no perfecta


entre x e y:
x
Parte de la variación en y
y
es explicada por la
variación en x

x
Ejemplos de Valores R2
(continuación)
y

R2 = 0

No hay relación lineal entre


x x e y:
R2 = 0
y
Los valores de Y no
dependen de X. (Nada de
la variación en y es
explicada por la variación
en x)
x
R2 = 0
Pruebas de Significancia

• Para la regresión lineal simple hay tres


pruebas estadísticas equivalentes:

• Prueba para la significancia de la correlación (ρ) entre


x e y
• Prueba para la significancia del coeficiente de
determinación (ρ 2)
• Prueba para la significancia de la pendiente de
regresión (b1)
Prueba para la Significancia del
Coeficiente de Determinación
 Hipótesis
H0: La variación de la variable independiente no explica
H0: ρ2 =0 la variación de la variable dependiente

HA: La variación de la variable independiente explica


una porción de la variación de la variable
HA: ρ2 > 0 dependiente

 Estadístico de prueba
SSR/1
F
SSE/(n  2) (con glnumerador = 1 y gldenominador = n – 2)
Significancia Estadística
de la
Pendiente
Distribución muestral de b1

σb1

͞b1= β1
Desviación Estándar de la Pendiente de
Regresión

sb 
  2
1
(x x)
Donde, s b1 : Desviación estándar de la estimación de la pendiente de
regresión
s ε : Error estándar de la estimación
• s b1 es estimado por: sb1 



 (x  x) 2

 x 2

(  x) 2

n
Donde: s b1 = Estimador de la desviación estándar de la pendiente
de regresión de mínimos cuadrados

SSE
sε  = Error (desviación) estándar muestral de la estimación
n2
Error Estándar de la Estimación
• Es la desviación estándar de la variación de
observaciones alrededor de la línea de
regresión simple estimada por:

SSE
sε 
n2
Donde:
SSE = Suma de cuadrados del error
n = Tamaño de la muestra
Comparando los Errores
Estándar
Variación de los valores obser- Variación en la pendiente de las
vados y respecto a la línea de líneas de regresión de diferentes
y regresión
y muestras posibles

se ( pequeño) x s b1 ( pequeño) x

y y

se ( grande) x s b1 ( grande) x
Evaluación de la Pendiente de
Regresión: Prueba t
• Prueba t para una pendiente poblacional
– ¿Hay relación lineal entre x e y?
• Hipótesis nula y alternativa
H0: β1 = 0 (No hay relación lineal)
HA: β1  0 (Existe relación lineal)
• Estadístico de prueba
b1  β1
Donde: b1 = Coeficiente de la pen-
t diente de regresión
muestral
sb1 β1 = Pendiente (hipótesis)
sb1 = Estimador del error es-
tandar de la pendiente
g.l.  n  2
Evaluación de la Pendiente de
Regresión: Prueba t
(continuación)
Ejemplo:
Ecuación de regresión estimada:
Precio de Área, pies
casa, $1000s cuadrados
(y) (x) Precio de casa  98.25  0.1098 (Área)
245 1400
312 1600
279 1700
308 1875
La pendiente de este modelo es
199 1100
0.1098
219 1550 ¿Los precios de las casas son
405 2350 afectados por sus áreas?
324 2450
319 1425
255 1700
Evaluación de la Pendiente de
Regresión: Prueba t
(continuación)
Ejemplo: H0: β1 = 0 HA: β1  0
Excel, resultado: b1 s b1
Coeficiente Error Estándar t Valor p
Intercepto 98.24833 58.03348 1.69296 0.12892
Área 0.10977 0.03297 3.32938 0.01039

g.l. = 10-2 = 8
Estadístico de prueba:
t = 3.329
/2=0.025
/2=0.025

-tα/2 No rechazar H0 tα/2


Rechazar H0 Rechazar H0

-2.3060
0 2.3060
Decision: Rechazar H0
Conclusion: Hay suficiente evidencia para concluir que la pendiente no es cero
Usos del Análisis de Regresión

• Para descripción

• Para predicción
Intervalo de Confianza
para la
Pendiente
Análisis de Regresión para la
Descripción
Intervalo de confianza para la pendiente:
b1  t /2sb1 g.l. = n - 2

Excel, resultados:

Con un nivel de confianza del 95%, el intervalo de


confianza para la pendiente es (0.0337, 0.1858)
Análisis de Regresión para la
Descripción
(continuación)

Como la variable precio de casa está expresada


en miles de dólares, estamos 95% seguros que el
impacto promedio sobre el precio de casa está
entre $33.70 y $185.80 por pie cuadrado

Este intervalo de confianza (al 95%) no incluye 0.


Conclusión: Hay una relación lineal estadísticamente
significativa entre el precio de casa y el área al nivel de
significancia de 0.05
Descripción

Intervalo de Confianza
para
ŷ
Intervalos para Diferentes
Valores de x

Intervalo de
confianza
para la
media de y,
dado xp

x
x xp
Intervalo de Confianza para el
Promedio de y, Dado x
Intervalo de confianza para la media de y
dado un valor particular xp

1 (x p  x)
2

ŷ  t /2sε 
n  (x  x) 2
Intervalo de Confianza para el Promedio de y, Dado x

El intervalo de confianza depende en forma


importante de la distancia de xp respecto del
valor medio de x. Cuanto más lejos xp del punto
medio, el intervalo de confianza será más
amplio, para un mismo nivel de confianza.
1 (x p  x)
2

ŷ  t /2sε 
n  (x  x) 2
Intervalos para Diferentes
Valores de x

Intervalo de
confianza
para la
media de y,
dado xp

x
x xp
Intervalo de Predicción
para un “y” dado un “x”
Intervalo de Predicción para un y
particular, Dado x
Intervalo de predicción para un valor
individual de y dado un xp particular

1 (x p  x)
2

y  t/2s ε 1  
n  (x  x) 2

Este término extra alarga el intervalo al reflejar la


incertidumbre adicional considerada en un caso
individual
Intervalo de Predicción para un y
particular, Dado x

Intervalo de predic-
ción para un y indi-
y vidual, dado xp

Intervalo de
confianza
para la
media de y,
dado xp

x
x xp
Análisis de Regresión para Predicción,
Ejemplo: Precios de Casas

Precio de Área, pies Ecuación de regresión estimada:


casa, $1000s cuadrados

Precio de casa  98.25  0.1098 (Área)


(y) (x)
245 1400
312 1600
279 1700
308 1875 Predecir el precio para una
199 1100 casa de 2000 pies cuadrados
219 1550
405 2350
324 2450
319 1425
255 1700
Análisis de Regresión para Predicción,
Ejemplo: Precios de Casas
(continuación)

Predecir el precio para una


casa de 2000 pies cuadrados

Precio de casa  98.25  0.1098 (Área)


 98.25  0.1098(2000)
 317.85
El precio predecido para una casa de
2000 pies cuadrados es
317.85($1,000s) = $317,850
Estimación de Promedios: Ejemplo

Intervalo de Confianza para E(y)|xp


Hallar el intervalo de confianza al 95% para el precio
promedio de casas de 2000 pies cuadrados

Precio Predecido Yi = 317.85 ($1,000s)

1 (x p  x)2
ŷ  t α/2sε   317.85  37.12
n  (x  x) 2

El intervalo de confianza es 280.66 -- 354.90, o


$280,730 -- $354,970
Predicción para y’s Individuales:
Ejemplo
Intervalo de predicción para y|xp
Hallar el intervalo de predicción al 95% para el precio
de una casa de 2,000 pies cuadrados

Precio Predecido Yi = 317.85 ($1,000s)

1 (x p  x) 2
y  t α/2s ε 1    317.85  102.28
n  (x  x) 2

El intervalo de predicción es 215.57 -- 420.13, o


$215,570 -- $420,130
Problemas con Regresión
• Aplicando análisis de regresión con fines
predictivos
– Pueden ocurrir errores grandes de predicción

• No suponer que correlación implica causalidad

• Un alto coeficiente de determinación, R2, no


garantiza que el modelo sea un buen predictor
– R2 es simplemente el ajuste de la línea de regresión a los datos
muestrales
Análisis de Regresión Múltiple
Para tratar este tipo de problemas se requiere
expandir el análisis de regresión:

Regresión Lineal Simple

Regresión Lineal Múltiple


y = β0 + β1x1 + ε

y = β0 + β1x1 + β2x2 + ……… + βpxp + ε


Modelo de Regresión Múltiple
Objetivo: Examinar la relación lineal entre
una variable dependiente (y) y
dos o más variables independientes (xi)
Modelo poblacional:
Y-intercepto Pendientes Error aleatorio

y  β0  β1x1  β2 x 2    βk xk  ε
Modelo de regresión múltiple muestral:

Valor de y y-intercepto Pendientes estimadas Error muestral


estimado

yi  b0  b1x1i  b 2 x 2i    b k x ki  ei
Modelo de Regresión Múltiple
Objetivo: Examinar la relación lineal entre
una variable dependiente (y) y
dos o más variables independientes (xi)
Modelo poblacional:
Y-intercepto Pendientes Error aleatorio

y  β0  β1x1  β2 x 2    βk xk  ε
Modelo de regresión múltiple estimado:

Valor estimado o y-intercepto Pendientes estimadas


predecido de ŷ estimado

ŷ  b0  b1x1  b2 x 2    bk xk
Modelo de Regresión Múltiple
Modelo de dos variables:

y
ŷ  b0  b1x1  b2 x 2

x2

Llamado hiperplano de regresión

x1
Modelo de Regresión Múltiple
(continuación)
Modelo de dos variables:

y Observación
yi
<
muestral ŷ  b0  b1x1  b2 x 2

yi

<
e = (y – y)

x2i
x2

x1i <La ecuación de mejor ajuste,


y, es hallada minimizando la
suma de cuadrados del error,
x1 e2
Modelo de Regresión Múltiple
Poblacional
Supuestos:
• Los términos de error (ε) son realizaciones estadísticamente
independientes de una variable aleatoria para cada nivel de x.

• Para un valor dado de x, pueden existir muchos valores de y, por lo


tanto muchos valores posibles para e. La distribución de los posibles
errores del modelo para cualquier nivel de x es normal.

• Las distribuciones de los posibles valores de los errores e tienen igual


varianza en cada nivel de x.

• Las medias de la variable dependiente y, para todos los valores


especificados de x, pueden ser conectados con una línea la cual es el
componente lineal del modelo de regresión poblacional.
Conceptos Básicos
para la
Construcción de Modelos
Conceptos Básicos para la
Construcción de Modelos
• Los modelos son usados para evaluar cambios
sin implementarlos en el sistema real.

• Los modelos pueden ser usados para predecir


“outputs” basados en “inputs” específicos.

• El proceso de construcción de modelos consiste


de 3 etapas:
• Especificación del modelo
• Ajuste del modelo
• Diagnóstico del modelo
Conceptos Básicos para la
Construcción de Modelos
Las 3 etapas:

• Especificación del modelo


– Especificación del modelo de regresión poblacional.
– Recolección de la data muestral.

• Formulación o construcción del modelo


– Cálculo de los coeficientes de correlación entre las distintas variables,
dependientes e independientes.
– Ajuste del modelo a la data. Estimación de la ecuación de regresión múltiple.

• Diagnóstico del modelo


– Pruebas estadísticas para determinar la bondad de ajuste del modelo a la
data.
– Verificación de los supuestos de regresión múltiple.
Especificación del Modelo

• A veces referido como identificación del modelo


• Es un proceso para establecer la estructura del
modelo
– Decidir qué se quiere hacer y seleccionar la variable
dependiente (y).
– Determinar las potenciales variables independientes (x)
para el modelo.
– Recolectar los datos muestrales (observaciones) para todas
las variables. Sugerencia: Tamaño muestral de al menos 4
veces el número de variables independientes.
Construcción del Modelo
• Es el proceso de contruir la ecuación para los
datos.

• Puede incluir todas o algunas de las variables


independientes (x).

• El objetivo es explicar la variación en la variable


dependiente (y) a través de la relación lineal con
las variables independientes seleccionadas (x).
Diagnóstico del Modelo
• Analizar la calidad del modelo (efectuar las pruebas de
diagnóstico).

• Evaluar el grado en que los supuestos se satisfacen.

• Si el modelo es inaceptable, iniciar el proceso de


construcción del modelo nuevamente.

• Usar el modelo más simple que satisfaga las necesidades.


– El objetivo es ayudar a tomar mejores decisiones.
Ejemplo

Un distribuidor de pies (postres) desea evaluar los


factores que se cree influyen en la demanda
Diagramas de Dispersión
Ejemplo:Especificación del Modelo

Un distribuidor de pies (postres) desea evaluar los factores


que se cree influyen en la demanda

• Variable dependiente: Ventas (unidades / semana)

• Variables independientes: Precio ($) y Publicidad ($100)

Modelo de Regresión múltiple Poblacional:

Ventas = β0 + β1(Precio) + β2(Publicidad) + ε


Ejemplo: Construcción o Formulación del Modelo

Modelo de Regresión Múltiple (Muestral):


Ventasj = b0 + b1(Precioj) + b2(Publicidadj) + errorj

Modelo de Regresión Múltiple Lineal

Ventas = b0 + b1(Precio) + b2(Publicidad)


Interpretación de los
Coeficientes Estimados
• Pendientes (bi)
– Estiman el cambio en el valor promedio de “y” como bi unidades por
cada unidad de incremento en xi manteniendo las otras variables
constantes.
– Ejemplo: Si b1 = -20, entonces se espera que las ventas promedio (y)
se reduzcan en 20 pies por semana por cada $1 en que se
incremente el precio (x1), manteniendo constante la variable
publicidad (x2).

• y-intercepto (b0)
– Estima el valor promedio de y cuando todas las variables xi son
iguales a cero (suponiendo que el valor cero está dentro de los
rangos de valores que pueden tomar los xi).
Formulación del Modelo

• Los datos de 15 semanas son recolectados….


Formulación del Modelo
Sema- Venta Precio Publicidad
na de pies ($) ($100s)
Modelo de Regresión Múltiple:
1 350 5.50 3.3
2 460 7.50 3.3
3 350 8.00 3.0 Ventas = b0 + b1 (Precio)
4 430 8.00 4.5
5 350 6.80 3.0 + b2 (Publicidad)
6 380 7.50 4.0
7 430 4.50 3.0
8 470 6.40 3.7 Matriz de correlación:
9 450 7.00 3.5
Venta de
10 490 5.00 4.0 pies Precio Publicidad
11 340 7.20 3.5 Venta de Pies 1
12 300 7.90 3.2 Precio -0.44327 1
13 440 5.90 4.0 Publicidad 0.55632 0.03044 1
14 450 5.00 3.5
15 300 7.00 2.7
Matriz de Correlación

• Las correlaciones entre la variable dependiente y las


variables independientes seleccionadas pueden
obtenerse usando Excel:
– Datos / Análisis de datos / Coeficiente de correlation

• Puede evaluar la significancia estadística de la


correlación con una prueba t
Matriz de Correlación:
Ventas de Pies
Ventas de
pies Precio Publicidad
Ventas de pies 1
Precio -0.44327 1
Publicidad 0.55632 0.03044 1

• Ventas vs. Precio : r = -0.44327


– Hay una asociación lineal negativa entre las
ventas y el precio
• Ventas vs. Publicidad : r = 0.55632
– Hay una asociación lineal positiva entre las
ventas y la publicidad
Estimación de la Ecuación de
Regresión Lineal Múltiple
• Programas estadísticos (computadora) son
generalmente usados para generar estimados de los
coeficientes y medidas de bondad de ajuste de la
regresión múltiple

• Excel:
– Datos / Análisis de datos / Regresión
Regresión Múltiple: Excel
(Resultado) (continuación)
Ecuación estimada de regresión múltiple:

Ventas  306.526 - 24.975(Precio)  74.131(Pub licidad)


Donde:
Ventas (número de pies por semana)
Precio ($)
Publicidad ($100’s)

b1 = -24.975: Las ven- b2 = 74.131: Las


tas decrecerán en ventas crecerán en
promedio 24.975 pies promedio 74.131 pies
por semana por cada por semana por cada
$1 incrementado en el $100 incrementado
precio, manteniendo en publicidad,
constante la publici- manteniendo cons-
dad tante el precio
Usando el Modelo para hacer
Predicciones
Predecir las ventas de una semana en la cual
el precio es $5.50 y la publicidad es $350.

Ventas  306.526 - 24.975(Precio)  74.131(Pub licidad)


 306.526 - 24.975 (5.50)  74.131 (3.5)
 428.62

Nota: La publicidad
La venta pre- está en $100’s,
decida es entonces x2 = 3.5
significa $350
428.62 pies
Coeficiente de Determinación
Múltiple (R2)
• Reporta la proporción de la variación total en y que es
explicada por todas las variables (juntas) x
consideradas en el modelo

SSR Suma de cuadrados de regresión


R 
2

SST Suma total de cuadrados
R2 Ajustado
• R2 nunca decrece cuando una nueva variable x es
añadida al modelo
– Esto puede ser una desventaja cuando se compara
modelos
• ¿Cuál es el efecto neto de agregar una nueva variable?
– Se pierde un grado de libertad cuando una nueva
variable x es añadida
– ¿La nueva variable x aporta suficiente poder
explicativo para compensar la pérdida de un grado
de libertad?
R2 Ajustado
(continuación)
• Muestra la proporción explicada de la variación en y por las
variables x’s tomando en cuenta la relación entre el tamaño de
muestra y el número de variables independientes

 n 1 
R  1  (1  R )
2 2

 n  k  1
A

(Donde n = Tamaño muestral, k = Número de variables independientes)

– Penaliza el uso excesivo de variables independientes no


importantes
– Es más pequeña que el R2
– Útil en la comparación entre modelos
Diagnóstico del Modelo: Prueba F
(Significancia General)
Prueba F para la significancia del modelo (general)
• Muestra si hay una relación lineal entre todas las
variables x (consideradas en forma conjunta) e y
• Usa el estadístico de prueba F
• Hipótesis:
– H0: β1 = β2 = … = βk = 0 (No hay relación lineal)
– HA: Al menos un βi ≠ 0 (Existe relación lineal entre (y)
y al menos un xi)
Diagnóstico del Modelo: Prueba F
(Significancia General)
(continuación)
• Estadístico de prueba:
SSR
k MSR
F 
SSE MSE
n  k 1
Donde: Los grados de libertad de F son:
glnumerador = k
gldenominador = (n – k – 1)
Diagnóstico del Modelo: Prueba F
(Significancia General)
(continuación)
H0: β1 = β2 = 0; HA: β1 o β2 es diferente de cero

 = 0.05 Valor crítico:


glnumerador= 2 F0.05 = 3.885
gldenominador = 12
 = 0.05

0 No rechazar H0 Rechazar H0 F

Estadístico de prueba:
MSR
F  6.5386
MSE
Decisión: Como F = 6.53 > 3.89 = F0.05 , entonces se rechaza H0

Conclusión: Hay suficiente evidencia para concluir que el modelo de regresión


explica parte de la variación en la venta de pies
(al menos una de las pendientes de regresión no es cero)
Diagnóstico del Modelo:
¿Las Variables Individuales son Significativas?

• Usar la prueba t para evaluar la significancia de cada


pendiente
• Muestra si hay una relación lineal entre la variable xi e
y
• Hipótesis:
– H0: βi = 0 (No hay relación lineal)
– HA: βi ≠ 0 (Existe relación lineal entre xi e y)
Diagnóstico del Modelo:
¿Las Variables Individuales son Significativas?
(continuación)

H0: βi = 0 (No hay relación lineal)


HA: βi ≠ 0 (Existe relación lineal entre xi e y)

Estadístico de prueba:

bi  0 (gl = n – k – 1)
t
sb i
Diagnóstico del Modelo:
¿Las Variables Individuales son Significativas?
(continuación)
H0: βi = 0; HA: βi  0

/2=0.025 /2=0.025
g.l. = 15-2-1 = 12
 = 0.05
t/2 = 2.1788 Rechazar H0 No rechazar H0 Rechazar H0
-tα/2 tα/2
0
-2.1788 2.1788
Excel (Resultado):
Coeficientes Error típico Estadístico t Valor p
Precio -24.97509 10.83213 -2.30565 0.03979
Publicidad 74.13096 25.96732 2.85478 0.01449

Decisión: Para cada variable se rechaza H0


Conclusión: Hay evidencia suficiente para concluir que cada variable in-
dividual (Precio y Publicidad) afecta a la venta de pies, dada
la presencia de la otra para  =0.05
Intervalos de Confianza para las
Pendientes
El intervalo de confianza para la pendiente poblacional
β1 (efecto sobre las ventas de pie respecto a cambios
en el precio):
b i  t  / 2 sbi Donde t tiene
(n – k – 1) g.l.

Ejemplo: Las ventas semanales de pies se reducirán


entre 1.37 a 48.58 pies por cada incremento de $1 en
el precio
Desviación Estándar del Modelo de
Regresión

• La estimación de la desviación estándar del modelo


de regresión está dada por:

SSE
se   MSE
n  k 1
 ¿Este valor es grande o pequeño? Para evaluarlo
se debe comparar con el promedio de y
Desviación Estándar del Modelo de
Regresión
(continuación)

• La desviación estándar del modelo de regresión es


47.46
• Un rango de predicción para las ventas de pies en una
semana se puede aproximar por  2(47.46)  94.2

• Considerando que el promedio muestral de pies por


semana es 399.3, un error de ±94.2 pies es
problablemente grande para ser aceptado. El dis-
tribuidor podría querer buscar variables adiciona-les
que puedan explicar más de la variación en las ventas.
Diagnóstico del Modelo:
Multicolinealidad

• Multicolinealidad: Es la presencia de correlación entre dos


variables independientes y, por lo tanto, se traslapan.

• Es decir, las dos variables contribuyen con información


redundante al modelo de regresión múltiple.
Diagnóstico del Modelo:
Multicolinealidad (continuación)
• Incluir dos variables independientes altamente
correlacionadas puede afectar adversamente los resultados
de regresión:

– No proporciona nueva información.


– Puede llevar a coeficientes inestables (error
estándar grande y valores t bajos).
– Los signos de los coeficientes podrían no ser
coherentes con nuestras expectativas iniciales y
con la matriz de correlación.
Problemas e Indicios de
Multicolinealidad Severa
• Signos incorrectos en los coeficientes.
• Cambio grande en el valor de un coeficiente como resultado
de agregar una nueva variable al modelo.
• Una variable anteriormente significativa se vuelve no
significativa cuando una nueva variable independiente es
agregada.
• El estimado de la desviación estándar del modelo se
incrementa cuando una variable es agregada al modelo.
Detección de Multicolinealidad
(Factor de Inflación de Varianza)
VIFj es usado para medir la colinealidad:

1
VIFj 
1  Rj
2

R2j es el coeficiente de determinación de la


regresión de la jma variable independiente contra
las restantes k – 1 variables independientes

Si VIFj ≥ 5, entonces xj está altamente


correlacionado con las otras variables
explicativas
Variables Dummy
El modelo de regresión requiere el uso de variables cuantitativas de ratio

¿Cómo manejar posibles variables categóricas que frecuentemente se


presentan en la explicación de una variable dependiente?
Ejemplo: Género, estado civil, grado de instrucción, tipo de vecindario, etc.

Variables Dummy
Variables Dummies

• Son usadas para incorporar variables


explicati-vas categóricas al modelo de
regresión:

– Si o no, masculino o femenino, etc.(variable


dummy: 0, 1)

– Casado o divorciado o viudo o soltero (variables


dummies: 0, 0, 1; 0, 1, 0; 1, 0, 0)
Variables Dummies
• El número de variables dummies requerido es
(categorías – 1) por cada variable cualitativa.

• A veces llamadas variables indicadoras.

• Los interceptos de regresión son diferentes si la


variable es significativa.

• Asume igual pendiente para las otras variables.


Variable Dummy (Dos Niveles) en un
Modelo de Regresión: Ejemplo

Sea:
ŷ = Ventas de pies ŷ  b0  b1x1  b2 x 2
x1 = Precio
x2 = Feriado (X2 = 1 si hay feriado en una semana)
(X2 = 0 si no hay feriado en una semana)
Variable Dummy (Dos Niveles) en un
Modelo de Regresión: Ejemplo
(continuación)

ŷ  b0  b1x1  b2 (1)  (b 0  b2 )  b1x1 Feriado

ŷ  b0  b1x1  b2 (0)  b0  b1x1 No Feriado

Interceptos Misma
diferentes pendiente
y (Ventas)
Si H0: β2 = 0 es
b0 + b2 rechazada, entonces
b0 Feriado tiene un
efecto significativo
sobre las ventas

x1 (Precio)
Regresión, Variable Dummy (Dos Niveles):
Interpretación de Coeficientes

Ejemplo: Ventas  300 - 30(Precio)  15(Feriado )


Ventas: Número de pies vendidos por semana
Precio: Precio del pie en dólares
1 Si hay feriado en una semana
Feriado:
0 Si no hay feriado en una semana

b2 = 15: En promedio, las ventas en una


semana con feriado son de 15 pies más
que en una sin feriado, manteniendo el
mismo precio
Regresión, Variables Dummies
(Más de Dos Niveles)
• El número de variables dummies es una unidad
menos que el número de categorías
• Ejemplo:
y = Precio de casa ; x1 = Área (pies cuadrados)

• El estilo de la casa se cree que debe ser conside-rado:


Estilo = Rancho, condominio, dos niveles

Tres categorías, entonces se


requiere dos variables dummies
Regresión, Variables Dummies
(Más de Dos Niveles) (continuación)
Asumamos que la categoría por defecto sea
“condominio”

1 Si es rancho 1 Si es dos niveles


x2   x3  
0 Si no lo es 0 Si no lo es

ŷ  b0  b1x1  b2 x 2  b3 x 3
b2 muestra el impacto sobre el precio si el estilo de
la casa es rancho, comparado a un condominio
b3 muestra el impacto sobre el precio si el estilo de
la casa es dos niveles, comparado a un condominio
Regresión, Variables Dummies (Más de Dos
Niveles): Interpretación de Coeficientes

Supongamos que la ecuación estimada es:


ŷ  20.43  0.045x1  23.53x 2  18.84x 3

Para un condominio: x2 = x3 = 0
Con la misma área, se estima
ŷ  20.43  0.045x1 que un rancho tendrá un
precio promedio de $23.53
Para un rancho: x3 = 0 (miles) más que un
condominio.
ŷ  20.43  0.045x1  23.53
Con la misma área, se estima
Para un dos niveles: x2 = 0 que un dos niveles tendrá un
precio promedio de $18.84
ŷ  20.43  0.045x1  18.84 (miles) más que un
condominio.

Вам также может понравиться