You are on page 1of 14

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

1. Análisis de Regresión Lineal Simple

1.1 Uso: Hay una variable "dependiente" Y que responde linealmente a una variable "independiente" X ,
estando la respuesta afectada además por una perturbación aleatoria ε .

1.2 Ecuación del modelo Y = β 0 + β1 X + ε


β0 es el valor esperado de Y cuando X es cero.
ß1 es el cambio esperado en Y cuando X crece en una unidad. Esto es, cuando X se incrementa en 1, al variable
respuesta Y "varía" en ß1 unidades (o sea Y crece si ß1 > 0 o Y disminuye si ß1 < 0).

• Supuestos del modelo

(a) E (ε j ) = 0 ∀j
(b) V (ε j ) = σ 2 = constante ∀j
(c) ρ ε jε j ' = 0 ∀j ∀j '
(d) X es de valores predeterminados, medidos antes de registrar los valores de Y , o en todo caso X es de
valores dados

1.3 Estimaciones de parámetros


n n n

∑ (Y j − Y )( X j − X ) ∑ X jY j − n X Y ∑X Y j j − nXY
rXY SY
βˆ1 = j =1
= j =1
= j =1
= y βˆ0 = Y − βˆ1 X
n n
(n − 1) S 2
SX
∑(X − X ) ∑X − nX
2 2 2 X
j
j =1 j =1

La estimación de Yˆj es Yˆj = βˆ0 + βˆ1 X j


n n

∑ εˆ 2j ∑ (Y j − Yˆ j ) 2
( n − 1) S Y2 (1 − rXY
2
)
σ 2 se estima con σˆ 2 = S ε2 = j =1
=
j =1
=
n−2 n−2 n−2

1.4 Ajuste del Modelo


En la regresión lineal simple el “Ajuste” se refiere a medir el efecto de la variable X en Y y también la magnitud
del error de pronóstico.
n
Variabilidad total en Y es SCT = ∑ (Y j − Y ) 2 . Se llama Suma de Cuadrados Total (SCT)
j =1
n
La variabilidad en Yˆ es SCR = ∑ (Yˆj − Y ) 2 . Se llama Suma de Cuadrados de la Regresión (SCR)
j =1
n
La variabilidad del azar se mide con SCE = ∑ (Y j − Yˆj ) 2 . Se llama Suma de Cuadrados Residual o del Error
j =1

(SCE). Se cumple la identidad SCT = SCR + SCE


El coeficiente de correlación R = rYYˆ es la correlación entre el valor real de la variable Y y el valor que predice el
modelo. Si el modelo representa bien a los datos, habrá coincidencia entre lo real y lo predicho, R debe ser positivo
y no irrelevante (según Cohen). En el modelo simple se cumple R = rYYˆ = rXY .
SCR
El Coeficiente de Determinación R 2 = . Es la proporción de la variabilidad total en Y que es "explicada" o
SCT
atribuible a las diferencias en la variable independiente X a través de la regresión. Es la proporción de diferencias
en Y que se deben a las diferencias en X.

1
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
n

∑ (Y − Yˆ j ) 2
σˆ = σˆ
j
2 j =1 SCE es la estimación de
El Error Estándar o típico de Estimación es donde σˆ 2 = =
n−2 n−2
la varianza σ ; la predicción de Y es Yˆ = βˆ0 + βˆ1 X y en intervalo es Yˆ = βˆ0 + βˆ1 X ± σˆ .
2

Mide el margen de error asociado al uso del modelo como base para el pronóstico de valores de Y.
σˆ 2 σˆ 2
Error estándar de estimación de β̂1 es EE βˆ = S βˆ = = . A nivel de estimación se
1 1 n
(n − 1) S X2
∑X − nX
2 2
j
j =1

escribe β1 = βˆ1 ± EEβˆ .


1

Tabla de Análisis de Varianza (ANOVA)

Análisis de Varianza de la Regresión

Fuente de Suma de Grados de Cuadrado Indice F


Variación Cuadrados Libertad Medio de Fisher
Regresión SCR 1 CMR=SCR/1 F=CMR/CME
Residual SCE n-2 CME=SCE/(n-2) --
Total SCT n-1 -- --

Yˆj = βˆ0 + βˆ1 X j σ̂


R
R2
Tabla de Análisis de Varianza (ANOVA) de SPSS
ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression SCR 1 CMR CMR/CME pa
Residual SCE n-2 CME
Total SCT n-1
a. Predictors: (Constant), X
b. Dependent Variable: Y

1.5 Contrastes en el Análisis de Regresión.

Propiedad
Si el error ε tiene distribución normal N(0,σ2) entonces se cumple

( βˆ1 − β1 ) σˆ 2
t= ~ t (n − 2) donde S βˆ = EE βˆ = n
S βˆ1 1 1

∑X − nX
2 2
j
j =1

2
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
( βˆ − b)
Contraste general sobre β1 H 0 : β1 = b , si H0 es cierta t = 1 ~ t ( n − 2)
S βˆ1

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste


H 1 : β1 > b t > t1−α Unilateral derecho

H 0 : β1 = b H 1 : β1 < b t < −t1−α Unilateral izquierdo

H 1 : β1 ≠ b | t |> t1−α / 2 Bilateral


t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t(k=n-2)

Contraste de coeficiente nulo H 0 : β = 0


En el caso particular en que contrastamos H 0 : β = 0 , esto equivale a decir que Y no depende de X. El
estadístico de contraste es simplemente t = βˆ / S βˆ y el procedimiento para rechazar H 0 es el mismo descrito en la
tabla anterior. SPSS hace este contraste bilateral o a dos colas y muestra directamente la significación.

Relación de R 2 con rXY . Se cumple la identidad R 2 = rXY


2
y βˆ = rXY S y / S x . También se cumple:
n
SCT = ∑ (Y j − Y ) 2 = (n − 1) SY2
j =1
n
SCR = βˆ1 ∑ (Y j − Y )( X j − X ) = rXY
2
(n − 1) SY2 y SCE = SCT − SCR = (n − 1)SY2 [1 − rXY
2
]
j =1

2. Análisis de Regresión Lineal Múltiple

2.1 Uso
Es una extensión del modelo lineal simple, que se aplica cuando tenemos una variable "dependiente" Y que
responde linealmente a p variables "independientes": X1, X2, X3,...,Xp

2.2 El Modelo
Y = ß0+ ß1X1 + ß2X2 + ß3X3 + ...+ ßpXp + ε, donde ß0, ß1, ß2, ß3, ... ,ßp son "parámetros" por estimar y ε es el efecto
del azar o residuo aleatorio

2.3 Tratamiento estadístico


• Hay que medir el efecto conjunto de las p variables independientes X1, X2, X3,...,Xp en la variable respuesta Y
y ver si este efecto es real o no.
• Debemos estimar los coeficientes ß0, ß1, ß2, ß3, ... ,ßp así como sus errores estándar de estimación.
• Hay que determinar cuáles de las p variables independientes tienen efecto real, o sea si el correspondiente
coeficiente es distinto de cero
• Adicionalmente, tendremos que hacer una jerarquización para ver cuáles variables independientes son más
importantes y cuáles menos importantes

2.4 Interpretación de los parámetros


ß0 es el valor esperado de Y cuando todas las Xk son cero
ßk es el cambio esperado en Y cuando Xk crece en una unidad y las otras variables Xi se mantienen constantes.

2.5 Estimación de los Parámetros


Las estimaciones serán denotadas βˆ0 , βˆ1 , βˆ2 , βˆ3 , ..., βˆ p

La estimación de Y es Yˆ = βˆ0 + βˆ1 X 1 + βˆ2 X 2 + βˆ3 X 3 + ... + βˆ p X p


La estimación del error o residuo ε es εˆ = Y − Yˆ

3
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
n n
La estimación de σ2 es σˆ 2 = Sε2 = ∑ εˆ 2j /(n − p − 1) = ∑ (Y j − Yˆj ) 2 / ( n − p − 1)
j =1 j =1

2.6 Ajuste del Modelo


Como en el caso lineal simple.
n
• La "variabilidad total" en Y es SCT = ∑ (Y
j =1
j − Y )2 .
n
• La "variabilidad en Yˆ " es SCR = ∑ (Yˆ
j =1
j − Y )2 .
n
• La "variabilidad del azar ” es SCE = ∑ (Y j − Yˆj ) 2 . Se cumple SCT = SCR + SCE
j =1

SCR
El ajuste global de los datos al modelo R 2 = es a proporción de la variabilidad total en Y que es
SCT
"explicada" o atribuible a las diferencias en las variables independientes X1,X2, ...,Xp a través de la regresión.

El coeficiente de correlación múltiple R = rYYˆ es la correlación entre el valor real de la variable Y y el valor que
predice el modelo. Si el modelo representa bien a los datos, habrá coincidencia entre lo real y lo predicho, R debe
ser positivo y no irrelevante (según Cohen). Se considera que R = rYYˆ es la correlación entre Y y el conjunto de
v.i. {X1, X2, X3,...,Xp}. Se cumple que R = R 2 y por construcción toma valores entre 0 y 1.

Esto es, 0 ≤ R ≤ 1 donde R=1 implica relación exacta de Y con X1,X2, ... y Xp , es decir el residuo εj es cero en
todos los casos y el modelo predice exactamente. El caso R=0 corresponde al otro extremo, donde no hay ninguna
relación lineal de Y con las variables independientes y el modelo sería completamente fallido.

El error promedio del modelo en el pronóstico de Y


Usamos el Error Estándar de Estimación, denotado σˆ o también Sε y dado por
σˆ = Sε = σˆ 2 = SCE /(n − p − 1) . Se escribe Y = Yˆ ± σ̂

2.7 Contrastes en el Análisis de Regresión Múltiple


Asumiendo ε j ~ N ( 0, σ ) para todo caso j. En este contexto, tenemos tres contrastes básicos:
2

El primero es el de la significación conjunta de las p variables independientes, o sea del modelo como un todo.
Esto se hace contrastando la hipótesis H 0 : β 1 = β 2 = β 3 = ... = β p = 0 que equivale a decir que no hay efecto de
las variables independientes sobre Y. También equivale a H 0 : R 2 = 0 donde R 2 es poblacional.
El segundo contraste es sobre la significación de alguna(s) variable(s) independiente(s). El contraste es de la forma
H 0 : β k = 0 para la significación de la variable Xk (que se puede hacer por separado para una o varias de las Xs)
Finalmente, el tercer tipo de contraste es acerca de un valor específico para algún coeficiente ßk, ie. H 0 : β k = b
donde b es un valor predeterminado e hipotético. El contraste de nulidad de ßk puede ser visto como un caso
particular de este caso.

2.7.1 Contraste de significación conjunta


• La hipótesis es H 0 : β 1 = β 2 = β 3 = ... = β p = 0 o equivalentemente H 0 : R 2 = 0
n
• La cantidad SCE /(n − p − 1) = ∑ (Y
j =1
j − Yˆj ) 2 /(n − p − 1) es la "varianza del error" σˆ 2 = Sε2 y se conoce

como "Cuadrado Medio del Error". Se denota CME y es la variabilidad promedio alrededor de la regresión o
sea la variabilidad promedio debida al azar.

4
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
n
• La cantidad SCR / p = ∑ (Yˆ
j =1
j − Y ) 2 / p es la "varianza de la regresión" y también se conoce como "Cuadrado

Medio de la Regresión", denotándose CMR. Es la variabilidad promedio por variable independiente del
modelo.
• Si el efecto de la regresión es importante, esperaríamos que CMR fuera bastante mayor que CME; esto es, si
por lo menos una de las variables explicativas Xs tiene efecto real sobre Y, entonces la varianza debida a la
regresión debiera ser mayor que la debida al azar y CMR > CME o equivalentemente, la variable
n

CMR
∑ (Yˆ
j =1
j − Y )2 / p
F= = n
debiera ser mayor que 1 (F > 1)
CME
∑ (Y j − Yˆj ) 2 /(n − p − 1)
j =1

CMR
• Si H 0 : β 1 = β 2 = β 3 = ... = β p = 0 es cierta entonces F = ~ F ( p, n − p − 1) y si F es mayor que el
CME
percentil 1 − α de la distribución F1−α ( p, n − p − 1) entonces se rechaza H 0 (
CMR
F= > F1−α ( p, n − p − 1) ⇒ se rechaza H 0 )
CME
• SPSS hace el contraste y directamente muestra la significación del estadístico F en el cuadro que llama
ANOVA

2.7.2 Contraste de significación para β k

• βˆk es una estimación de β k, tiene un error de estimación que denotaremos Sβk que SPSS adjunta a la
estimación de cada β k.
• En el modelo de regresión lineal múltiple, si βˆk es la estimación de β k y Sβk es el correspondiente error
estándar, entonces se cumple
βˆk − β k
t= ~ t ( n − p − 1) donde p es el número de variables independientes o explicativas del modelo.
SβK
βˆk
• β k=0 se hace con el estadístico t =
El contraste de H0:β pues si H0 es cierta, el citado estadístico tendrá
Sβ K
distribución t de Student con (n-p-1) grados de libertad y esperamos un valor de βˆk cero o cercano a cero, o
equivalentemente esperamos que βˆk no se aleje de cero mucho más de su margen de error S β K , por tanto el
βˆk
estadístico t = debe estar alrededor de 0
Sβ K
Contraste sobre βk H 0 : βk = 0

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste


H1 : β k > 0 t > t1−α Unilateral derecho

H0 : βk = 0 H1 : β k < 0 t < −t1−α Unilateral izquierdo

H1 : β ≠ 0 | t |> t1−α / 2 Bilateral


t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t(k=n-p-1)

SPSS hace el contraste bilateral o a dos colas y muestra directamente la significación.

5
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Nota: Contraste General para β k H 0 : β k = b
La misma propiedad permite el contraste general sobre β k, o sea el contraste de H0:β k=b, donde b es un valor
βˆ k − b
hipotético y predeterminado. Se usa como estadístico de contraste a t = ~ t ( n − p − 1)
S βK
Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste
H1 : β k > b t > t1−α Unilateral derecho

H0 : βk = b H1 : β k < b t < −t1−α Unilateral izquierdo

H1 : β ≠ b | t |> t1−α / 2 Bilateral


t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t(k=n-p-1)

Este contraste no figura en los programas de computadora, pero éstos dan todos los elementos para hacer los
cálculos manualmente.

Los resultados del análisis se presentan en un formato similar al del modelo lineal simple

Tabla de Análisis de Varianza (ANOVA)

Análisis de Varianza de la Regresión

Fuente de Suma de Grados de Cuadrado Indice F


Variación Cuadrados Libertad Medio de Fisher
Regresión SCR p CMR=SCR/p F=CMR/CME
Residual SCE n–p-1 CME=SCE/(n-p-1) --
Total SCT n-1 -- --

Yˆ = βˆ0 + βˆ1 X 1 + ... + βˆ p X p σ̂


R
2
R 2 RAjustado

La presentación en SPSS es similar al caso lineal simple

2.7.3 Coeficientes Estandarizados


• Para medir la mayor o menor importancia que tiene cada variable explicativa y significativa en la deter-
minación de los valores de Y.
• Esto no se hace comparando los coeficientes βs pues éstos dependen de las unidades de medida que de cada
variable independiente.
• Se usan los Coeficientes Estandarizados, que carecen de unidades de medida y que SPSS llama “Standardized
Coefficients Beta”: Cuanto mayor en valor absoluto el coeficiente, más importante es la variable.
S Xk
La fórmula para Beta estandarizado de la variable X k es β YX K = βˆk y mide “en cuántas desviaciones
SY
estándar de Y cambia Y cuando Xk aumenta en una desviación estándar de Xk”

2.7.4 Comparación de Modelos.


Cuando dos modelos tienen el mismo número de variables se comparan los coeficientes R2 y se busca el de mayor
R2 significativo.

6
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Cuando dos modelos con diferente número de variables hay que usar el Coeficiente R2 Ajustado o Corregido,
denotado R2A y dado por:
 SCE /( n − k )  2 ( n − 1)
RA2 = 1 −   = 1 − (1 − R ) donde k es el número de parámetros ßj incluidos en el
 SCT /( n − 1)  (n − k )
correspondiente modelo (incluyendo ß0). R2A “corrige” el crecimiento artificial de R2 debido al aumento del
número de v.i. que, aún sin efecto real, incrementan en algo el R2.

Por lo general, el modelo con el mayor R2A es preferible. Pero, esta regla sólo se usa para seleccionar las variables
independientes que se quedan en el modelo final. Para medir el poder explicativo del conjunto final de variables
independientes se sigue usando el R2.

No se usa R2 para comparar modelos porque R2 puede crecer por una razón adicional al ajuste de los datos al
modelo, y es por el mayor número de variables de un modelo con respecto a otro, sólo porque se ha incrementado
el número de variables. En la fórmula de R2A, esta última posibilidad se atenúa, y se puede demostrar que R2A
puede decrecer si se incrementa el número de variables y éstas no tienen mayor poder explicativo. Incluso R2A
puede salir negativo, en cuyo caso se lo toma como igual a cero.

2.7.5 Verificación de supuestos del modelo de regresión múltiple:


El modelo de regresión lineal tiene varios supuestos que se deben cumplir para que los análisis estadísticos sean
válidos. Los tres más importantes son:
(1) La normalidad de residuo: ε ~ N (0,σ ε2 )
(2) La homocedasticidad o varianzas homogéneas σ ε2 = σ 2 ∀ε
(3) La independencia entre las variables explicativas X1,X2,...y Xp o supuesto de no colinealidad o no
multicolinealidad que es lo mismo

En nuestro curso verificamos sólo (1) y (2).


(1) La normalidad del residuo o error aleatorio ε . Este supuesto se puede estudiar calculando el residuo para
cada caso de la muestra , esto es, ε j = (Y j − Yˆj ) . Hay dos pruebas básicas:
Aplicando un Contraste de normalidad, como las pruebas de normalidad de Kolmogorov-Smirnov (que se
usa cuando n >50) y la de Shapiro (que se usa cuando n ≤ 50) con sus significancias. En ambos casos la hi-
pótesis nula es H0: La distribución sí es normal y para rechazarla se ve si la significancia es pequeña (menor
que 0.05). Estas pruebas tienen el defecto de que para muestras grandes (más de 100 casos aproximadamente)
detectan falta de normalidad de todos modos, pues una distribución normal exacta no existe en la práctica.

Pruebas gráficas de normalidad, y también ocasionalmente, examinando el histograma de los residuos: Si


hay normalidad, el histograma debe ser más o menos en forma de “cerrito”. El Test gráfico de nor-
malidad muestra en el eje X la distribución acumulada de los residuos en la muestra y en el eje Y la distri-
bución acumulada de residuos si tuvieran distribución normal exacta: Si hay normalidad, los puntos XY deben
ser más o menos iguales y deben caer siguiendo una recta.

Si se detecta falta de normalidad de residuos, esto puede deberse a que alguna variable explicativa
importante se ha omitido o a que la relación es no lineal. Si fuera el último caso, se puede ensayar con modelos
no lineales o con transformación de variables, como cambiar Y por su logaritmo ln(Y ) o por su raíz cuadrada
Y . Esto es más especializado y de presentarse el caso, es mejor consultar a un especialista. Pero antes de
ello, es mejor ver si la falta de normalidad es la severa, pues de no serlo, todavía el modelo de regresión
puede seguir siendo útil sin mayor cambio.

La severidad de la falta de normalidad se evalúa con:


El coeficiente de asimetría (la distribución normal es simétrica, si hay asimetría severa estamos en problema
serio). Una regla práctica es: Si en valor absoluto el coeficiente de asimetría pasa de 3 hay asimetría severa y
falta de normalidad severa.
El coeficiente de curtosis, que compara la proporción de casos en los extremos o en “colas” derecha o iz-
quierda de la distribución en la muestra con la equivalente en una distribución normal . En la distribución
normal esa proporción es de 2.3% aproximadamente y si en la muestra es mucho mayor (distribución con

7
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
“colas pesadas” se dice), hay más probabilidad de lo usual de tener valores extremos, valores que a pesar de
ser pocos pueden causar una falsa significación en los contrastes. En cambio, si es mucho menor (distribución
con “colas ligeras”), entonces se reduce la probabilidad de detectar coeficientes significativos aunque lo sean,
es decir, se reduce la probabilidad de detectar una hipótesis de trabajo verdadera. Una regla empírica es que la
curtosis es grave si en valor absoluto el coeficiente de curtosis es mayor que 8

(2) La no colinealidad es el supuesto de variables explicativas independientes o al menos no excesivamente


correlacionadas (que es el caso en Psicología donde es difícil encontrar rasgos totalmente independientes). Una
manera sencilla de verificar la no correlación excesiva de una v.i., digamos Xj, es hacer un análisis de regresión
de Xj como dependiente de las otras (p-1) v.i. del modelo: El R X2 j debiera salir muy pequeño y por oposición
(1- R X2 j ) , que es la proporción de varianza de Xj explicada “por ella misma”, debiera ser cercano a uno. Esta
última cantidad se llama la “Tolerancia”. Cuando una v.i. correlaciona excesivamente con las demás v.i. de un
modelo, una consecuencia es que su Tolerancia es muy baja y eso aumenta artificialmente la varianza del error
o residuo, lo que no es bueno, pues puede malograr las pruebas de significancia de los coeficientes de regre-
sión. La inversa de la Tolerancia se llama Factor de Inflación de Varianza, y se denota FIV: FIV= 1/Tolerancia
El FIV mide cuánto aumenta la varianza del residuo debido a una excesiva correlación de la respectiva v.i. con
el resto. El FIV no debe ser alto y, en general, la regla práctica es: Si FIV < 10, la correspondiente variable
independiente no está demasiado correlacionada con las otras v.i. del modelo y por tanto no hay mayor
problema de multicolinealidad o colinealidad que es lo mismo.

Cuando hay problema de multicolinealidad, hay varias posibilidades:


Puede ser que haya una variable “redundante”, que puede eliminarse sin mayor problema.
Varias v.i. correlacionan mucho entre sí porque miden rasgos o características compatibles sin que haya
redundancia. Si son “sumables” se pueden reemplazar por algún índice compuesto interpretable.
Si no es posible formar una “variable resumen” porque carece de sentido psicológico, entonces una alterna-
tiva es hacer una “Regresión con entrada jerárquica” donde las variables independientes entran al modelo en
sucesivas etapas definidas por el investigador y se examina la significación de cada incremento del R2.
Si una regresión jerárquica no tuviera sentido teórico y hay alta colinealidad, ésta puede deberse a que en
verdad no basta con una ecuación de regresión. En ese caso, se puede pasar a un modelo de ecuaciones
múltiples vía Análisis Multivariado de Regresión Múltiple o en casos más complejos, vía Modelos de
Ecuaciones Estructurales.

2.8 Modelo de regresión logística


La regresión logística se aplica cuando la variable dependiente Y es dicotómica (o binaria) y estamos interesados
en averiguar cómo ciertas variables independientes X1, X2, ..., Xp condicionan la probabilidad de que Y tome
alguno de sus valores. Usualmente Y toma valores 1 o 0, donde 1 indica la ocurrencia o presencia de un evento A
de interés y 0 indica su ausencia. Interesa p=P(Y=1)=P(A) en función de X1, X2, ..., Xp y por razones prácticas de
cálculo se postula el modelo
 p   p 
ln   = β 0 + β1X1 + β 2 X 2 + ... + β p X p donde   mide cuántas veces es más probable que ocurra A, a que
1 − p  1 − p 
 p 
no ocurra (“chance” de A) y el logaritmo neperiano de esta chance ln   mide la propensión a ocurrir de A,
1 − p 
en una escala de -∞ a +∞, donde a mayor valor, mayor propensión.

SPSS le muestra una serie de cuadros proporcionando información de:

(1) Contraste global de H 0 : β1 = β 2 = β 3 = 0 . En el cuadro “Prueba ómnibus” u “Omnibus Tests of Model


Coefficients”, en la última línea (modelo) se muestra la significación global del modelo propuesto.

(2) Ajuste del modelo. En el cuadro “Resumen del modelo” o “Model Summary” donde el R2 de Nagelkerke mide
el ajuste y también en el cuadro “Tabla de clasificación” o “Classification Table” donde SPSS muestra el
porcentaje de aciertos que tiene el modelo cuando pronostica los valores de Y en la muestra. Se desea un R2
grande y un porcentaje de aciertos también grande, 65% o más para un buen ajuste.

8
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
(3) Contrastes individuales para cada X j : H 0 : β j = 0 vs H 1 donde H 1 puede ser de una cola o de dos colas.
Esto figura en el cuadro “Variables en la ecuación” o “Variables in the Equation”, donde SPSS muestra el
valor estimado de β j ,el error estándar de estimación E.E.βˆ , el cuadrado del estadístico W de Wald
j

βˆ
W= que es el equivalente al estadístico t-Student de la regresión lineal múltiple (SPSS muestra W2) y
j

E.E.βˆ
j

la significación a dos colas (o sea SPSS contrasta H 0 : β j = 0 vs H1 : β j ≠ 0 )


P
(4) Importancia relativa de cada v.i. con el indicador Exp(B), que se interpreta en términos del cociente
1− P
donde P = P (Y = 1) ): A mayor exponencial Exp(B), más importante la correspondiente v.i. Esto figura en la
última columna del cuadro “Variables in the Equation”.

2.9 Modelos de regresión no lineal


Un supuesto básico en los modelos lineales es que los cambios en las variables independientes ocasionan
variaciones proporcionales en la variable dependiente, sea cual fuere el nivel de las primeras. Lo anterior no
siempre es razonable y entonces se aplican modelos no lineales. Una inspección con un diagrama de dispersión XY
ayuda a ver si un modelo no lineal es adecuado. Con frecuencia estos casos se tratan adaptándolos al modelo li-
neal, y se conocen como “Modelos linealizables”: situaciones en donde una transformación de variables asimila el
modelo a un caso lineal simple o múltiple. Los Modelos linealizables más frecuentes son

Cuadrático: E[Y] = α + ß1X + β 2X2, que se asimila al caso lineal haciendo Z = X2, que convierte el modelo en
E[Y] = α + ß1X + β 2Z.
p
Polinomial: E[Y] = ß0 + ß1X1 + ß2 X2 + ß3X3 +···+ ßpX que se asimila al modelo lineal múltiple haciendo Zj=
Xj, que convierte el modelo en E[Y] = ß0 + ß1Z1 + ß2 Z2 + ß3Z3 + ··· + ßpZp .

La gráfica depende fundamentalmente del signo de la mayor potencia de X (de ßp) y por supuesto, también del
"grado" (potencia) del polinomio. Si ßp>0 la gráfica se abre “hacia arriba”, si ßp<0la gráfica se abre “hacia abajo”.

3. Contrastes acerca de la Diferencia de Medias

3.1 Contexto General


Tenemos dos variables Y1 e Y2 , (medidas en escala de intervalo, por lo menos), cuyo comportamiento
probabilístico es caracterizado apropiadamente por las medidas de centralidad µ1 y µ 2 . Se quiere contrastar o
someter a prueba la hipótesis H 0 : µ1 = µ 2 contra una H 1 que puede ser uni o bilateral.

Supondremos que el Nivel de Significación α es predeterminado y que de las poblaciones tomaremos muestras de
tamaños conocidos n1 y n2 , respectivamente asumiendo normalidad de datos, i.e. Yi ~ N ( µi , σ i2 ) i = 1,2 , para
simplificar el análisis.

3.2 Caso de Muestras Relacionadas (Antes-Después)


Este caso se presenta cuando por cuestiones de control, es necesario trabajar con los mismos sujetos en ambas
muestras (por ejemplo, en estudios con Test-Retest, o Antes-Después) o con sujetos "emparejados" (como en el
caso de estudios con Gemelos). Cada sujeto proporciona dos valores: uno para Y1 ("Antes" o "Test") y otro para
Y2 ("Después" o "Retest").

n1 = n2 = n , donde n es el número de casos válidos en el estudio y la hipótesis nula H0 es la de no diferencia


entre el "antes" y el "después", esto es H 0 : µ1 = µ 2

9
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
D
El estadístico de contraste para H0 es t = , donde D = Y1 − Y2 es la diferencia "antes"-"después",
SD
n
D =Y1 −Y 2 es la media de esta diferencia y S D es su correspondiente desviación estándar. S D puede ser
calculada directamente a partir de las n diferencias D = Y1 − Y2 o con S D2 = S12 + S 22 − 2rY1Y2 S1 S 2

• En realidad esta prueba es una adaptación de la prueba sobre la media de una población, pues si
D = (Y1 − Y2 ) , entonces ya sabemos que µ D = ( µ1 − µ 2 ) y por tanto H 0 : µ1 = µ 2 equivale a H 0 : µ D = 0 .
D
• Si H 0 es verdadera, el estadístico t = tiene distribución t-Student con k=(n-1) grados de libertad.
SD
n
• La ventaja de esta prueba es que elimina otras fuentes de diferencias entre casos, ajenas al Factor bajo estudio.
La región crítica o zona de rechazo de H 0 , depende de cómo sea H 1
Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste
H 1 : µ1 > µ2
⇔ t > t1−α Unilateral derecho
H0 : µD > 0
H 0 : µ1 = µ 2 H1 : µ1 < µ2
⇔ ⇔ t < −t1−α Unilateral izquierdo
H 0 : µD = 0 H0 : µD < 0
H 1 : µ1 ≠ µ 2
⇔ | t |> t1−α / 2 Bilateral
H0 : µD ≠ 0
t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t(k=n-1)
• La prueba también puede aplicarse cuando se miden dos atributos distintos pero comparables, en las mismas
unidades experimentales y se sabe de una correlación entre los atributos.
D − d0
La hipótesis más general H 0 : µ1 − µ2 = d0 , donde d 0 es un valor dado, se prueba con t = , que se
SD
n
compara con t1−α o t1−α / 2 según que H1 sea uni o bilateral
Hipótesis Hipótesis Rechazar H 0
Tipo de contraste
Nula Alterna si
H 0 : µD > d0 t > t1−α Unilateral derecho
H 0 : µD = d0 H 0 : µD < d0 t < −t1−α Unilateral
izquierdo
H 0 : µ D ≠ d0 | t |> t1−α / 2 Bilateral
t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t(k=n-1)
• La prueba también puede aplicarse cuando se miden dos atributos distintos pero comparables, en las mismas
unidades experimentales y se sabe de una correlación entre los atributos.

10
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
3.3 Caso de Muestras Independientes
El análisis depende de si σ 12 = σ 22 o si σ 12 ≠ σ 22 . Se hace un contraste previo

Contraste Manual de Homogeneidad de Varianzas H 0 : σ 12 = σ 22 vs H 1 : σ 12 ≠ σ 22


S12
• Estadístico de contraste F = , donde S i2 es la varianza de la muestra tomada de la población
S 22
N ( µi , σ i2 ) i = 1,2
S12
H 0 : σ 12 = σ 22 verdadera ⇒ F = ~ F ( n1 − 1, n 2 − 1)
S 22

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste

H 0 : σ 12 = σ 22 H 1 : σ 12 ≠ σ 22 F > F1−α / 2 o F < Fα / 2 Bilateral

F1−α / 2 y Fα / 2 percentiles de la tabla F (n1 − 1, n2 − 1) en donde


Fα / 2 ( n1 − 1, n 2 − 1) = 1 / F1−α / 2 ( n2 − 1, n1 − 1)

Contraste de homogeneidad con SPSS


• Primero SPSS hace el Contraste de Levene para que decidamos si las varianzas poblacionales son iguales o no.
No es una hipótesis de investigación, pero se necesita para determinar luego la metodología para el contraste
de medias.
• La hipótesis a contrastar es H0:σ12=σ22 vs H0:σ12≠σ22 que figura debajo del encabezamiento Levene's Test
for Equality of Variantes. Se nos muestra el estadístico F de esta prueba y su significación. La regla es
rechazar H0:σσ12=σ22 si esta significación es menor que el nivel α con que deseamos trabajar.

3.3.1 Caso de Varianzas Homogéneas ( σ 12 = σ 12 = σ 2 )

La hipótesis nula es H 0 : µ1 = µ 2 y si podemos asumir σ 12 = σ 12 = σ 2


(Y 1 − Y 2 ) (n1 − 1) S12 + (n 2 − 1) S 22
• El estadístico de contraste es t = donde S p2 = .
S 2p S p2 (n1 + n 2 − 2)
+
n1 n2
Si H 0 : µ1 = µ 2 es verdadera, t tiene distribución t-Student con k =(n1+n2-2) grados de libertad.

• En el contexto anterior, la regla de decisión depende de H 1

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste


H 1 : µ1 > µ 2 t > t1−α Unilateral derecho
H 0 : µ1 = µ 2 H 1 : µ1 < µ 2 t < −t1−α Unilateral izquierdo
H 1 : µ1 ≠ µ 2 | t |> t1−α / 2 Bilateral
t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t ( k = n1 + n2 − 2)

Solución con SPSS:


• Dependiendo del resultado del contraste previo sobre varianzas, debemos usar la línea Equal variances
assumed (si σ12=σ22) o Equal variances not assumed (si σ12≠σ22).
• SPSS presenta el valor del estadístico t-Student, los grados de libertad correspondientes y la Significación a
dos colas o bilateral

11
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
3.3.2 Caso de Varianzas Heterogéneas ( σ 12 ≠ σ 22 )
La hipótesis nula es H 0 : µ1 = µ 2 y sabemos que σ 12 ≠ σ 22

• Para este caso no existe una solución o Test óptimo exacto. Hay varias propuestas pero programas
computacionales como SPSS suelen usar una metodología (Test de Welch) donde se ponderan los grados de
libertad de las varianzas muestrales
2 2
• Como las varianzas poblacionales son diferentes, no podemos combinar las varianzas muestrales S1 y S 2 en
una varianza ponderada y debemos mantenerlas separadas por lo que el estadístico de contrastes es de la forma
(Y 1 − Y 2 )
t=
S12 S 22
+
n1 n2
• El problema es que la distribución de este estadístico t no es exactamente la t de Student y hay dos valores para
los grados de libertad: ( n1 − 1) y ( n2 − 1) , de modo que se necesita una solución de compromiso

En la metodología de Welch que usa SPSS, se calcula un promedio ponderado k de los grados de
libertad ( n1 − 1) y ( n2 − 1) , usando la fórmula
2
 S12 S 22 
 + 
 n1 n 2 
k= 2 2
 S12   S 22 
   
 n1  +  n2 
n1 − 1 n2 − 1

Con este valor de k (redondeado) se va a la tabla t-Student de acuerdo al nivel de significación α y el tipo de
hipótesis alterna H 1 uni o bilateral

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste


H 1 : µ1 > µ 2 t > t1−α Unilateral derecho
H 0 : µ1 = µ 2 H 1 : µ1 < µ 2 t < −t1−α Unilateral izquierdo
H 1 : µ1 ≠ µ 2 | t |> t1−α / 2 Bilateral
t1−α y t1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla t (k ) con k grados de libertad

Solución con SPSS:


• En SPSS el análisis es similar al anterior pero usando la t de la línea de correspondiente al caso donde no
podemos asumir varianzas iguales.
• SPSS presenta el valor del estadístico t-Student, los grados de libertad ponderados correspondientes y la
Significación a dos colas. Si deseamos usar una tabla t-student, debemos comparar el t obtenido con el valor
tabular con grados de libertad más cercanos a los mostrados por SPSS. Pero como se nos da la significación,
basta con este dato

3.3.4 Criterio de Cohen para medir el Tamaño del Efecto.


( µ1 − µ 2 )
El índice d de Cohen es d = y se llama "Tamaño del Efecto".
σ
Si 0.2 ≤ d < 0.5 el efecto es "pequeño" (diferencia pequeña)
Si 0.5 ≤ d < 0.8 el efecto es "mediano" (diferencia mediana)
Si 0.8 ≤ d el efecto es "grande" (diferencia grande)
En el caso que resulte d < 0.2, el efecto puede ser considerado irrelevante, dependiendo mucho del contexto de la
investigación.

12
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Observaciones:
• Los test anteriores se pueden aplicar al caso más general H0:µ1-µ2=d0, donde d0 es un valor predeterminado.
Sólo cambia el numerador del estadístico t que es ahora igual a [ (Y 1 − Y 2 ) − d 0 ]
• Es recomendable tener tamaños de muestra iguales. Esta precaución es importante sobre todo en el caso de
heterogeneidad de varianzas.
• Hemos asumido normalidad de datos. Pero se ha probado que las pruebas t-Student pueden aplicarse incluso si
no hay normalidad; basta con que las distribuciones de las respuestas sean simétricas. En este caso, es de suma
importancia que n1 = n2.

4. Contrastes acerca de la Diferencia de Proporciones

4.1 Contexto General


Tenemos una característica cualitativa A que se presenta en una Población 1 en proporción P1 y en otra Población
2 en proporción P2. Deseamos contrastar la hipótesis H0:P1=P2 a partir de respectivas muestras de tamaños n1 y n2,
apropiadamente grandes y a un nivel de significación α predeterminado.

4.2 Caso de Muestras Independientes


Este caso se presenta cuando tenemos dos poblaciones diferentes e independientes y queremos ver si son
equivalentes (u homogéneas) en relación a una característica cualitativa A. Para ello tomamos muestras grandes e
independientes una de la otra, de las respectivas poblaciones. La hipótesis de equivalencia equivale a H 0 : P1 = P2
( p1 − p 2 ) n1 p 1 + n 2 p 2
El estadístico de contraste es Z = donde p = y q = 1 − p , siendo p j la proporción
pq pq n1 + n 2
+
n1 n2
de sujetos que tienen la característica cualitativa A en la muestra de la Población j.

Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste


H 1 : P1 > P2 Z > Z1−α Unilateral derecho
H 0 : P1 = P2 H 1 : P1 < P2 Z < − Z 1−α Unilateral izquierdo
H 1 : P1 ≠ P2 | Z |> Z1−α / 2 Bilateral
Z1−α y Z1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla N ( 0,1)
Este test se usa con tamaños de muestra de 20 casos como mínimo, por población.

El contraste puede modificarse para cubrir la hipótesis general H 0 : P1 − P2 = D0 , donde D0 es una cantidad
( p 1 − p 2 ) − D0
predeterminada. El estadístico Z cambia a Z = donde en el denominador ya no se incluye una
p1 q 1 p2 q2
+
n1 n2
proporción promedio, pues ésta no tiene sentido en este caso.

Solución con SPSS:


SPSS le muestra una tabla de frecuencias de casos con A y sin A dentro de cada grupos y añade los porcentajes
por grupo.
Lo que hace SPSS es elevar al cuadrado el estadístico Z de contraste, con lo que lo convierte en un χ 2 con
k = 1 grado de libertad o df como lo llama SPSS. Esto figura en el cuadro Chi Square tests, donde SPSS
muestra la significación (a dos colas) en la línea que llama Pearson Chi-Square y bajo el encabezamiento
Asymp. Sig. (2-sided) o Exact Sig. si se ha pedido. La significación exacta es más precisa pero no siempre se
puede calcular. El resto del output no interesa para este test.

4.3 Caso de Muestras Relacionadas (Prueba de McNemar)


En este caso, tenemos n sujetos, en los cuales se observa si tienen una característica cualitativa A , Antes y
Después de una intervención.

13
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

• La hipótesis de no cambio o no efecto de la intervención es H 0 : P1 = P2 y deseamos contrastarla con los


datos.
• Para contrastar H 0 : P1 = P2 se distribuyen los n casos en una tabla de frecuencias de doble entrada de la
forma:

Antes
Después Sin A Con A Total
Con A a b (a+b)
Sin A c d (c+d)
Total (a+c) (b+d) n

(d − a)
• Se calcula el estadístico de contraste Z = y la Regla de Decisión depende de la forma de H 1 , según:
(d + a)
Hipótesis Nula Hipótesis Alterna Rechazar H 0 si Tipo de contraste
H 1 : P1 > P2 Z > Z1−α Unilateral derecho
H 0 : P1 = P2 H 1 : P1 < P2 Z < − Z 1−α Unilateral izquierdo
H 1 : P1 ≠ P2 | Z |> Z1−α / 2 Bilateral
Z1−α y Z1−α / 2 percentiles 1 − α y 1 − α / 2 de la tabla N ( 0,1)
Este test se usa si (a+d) > 10, en caso contrario no es fiable y hay que aplicar otra prueba, llamada Prueba
Exacta de Fisher.

Esta prueba también permite comparar proporciones de dos características cualitativas diferentes pero medidas
en los mismos sujetos.

Solución con SPSS:


SPSS le muestra una tabla de frecuencias simples y luego un cuadro llamado Chi Square tests donde figura la
significación (a dos colas) del test de McNemar y como en el caso de muestras independientes, eleva el estadístico
de contraste Z al cuadrado y muestra la significación asintótica y si se pide y la memoria lo permite, la
significación exacta.

4.4 Tamaño del Efecto en el caso de Proporciones


Cohen sugiere usar un índice que involucra la función trigonométrica "arco seno". El índice propuesto por Cohen,
denotado h, es h=|2arcsen( P1 )-2arcsen( P2 ) y para medir el Tamaño del Efecto se aplica a h el mismo
criterio usado en el caso de diferencia de medias, esto es:

Si 0.2 ≤ h < 0.5 el efecto es "pequeño"


Si 0.5 ≤ h < 0.8 el efecto es "mediano"
Si 0.8 ≤ h el efecto es "grande"
En el caso que resulte h < 0.2, el efecto puede ser considerado irrelevante, dependiendo mucho del contexto
de la investigación.

Recordemos finalmente, la definición de la función "arcoseno": Arcsen(x)=El ángulo (medido en radianes) cuyo
seno vale x, i.e. α=Arcsen(x)⇔Sen(x)= α.

14