Вы находитесь на странице: 1из 16

DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS

Una variable aleatoria tendrá una función de densidad o una función de probabilidad. Existe una gran cantidad de variables aleatorias cuya función no se conoce de antemano. Para obtenerla se deben recolectar datos (realizar el experimento), y a partir de ellos describir las características de esa variable aleatoria, éstas funciones se conocen como distribuciones empíricas. Otras variables aleatorias pueden determinarse o suponerse sobre la base de consideraciones teóricas, a partir de las cuales surge una función matemática que cumple con las propiedades de las funciones de distribución o de las funciones de densidad (para variables discretas o continuas respectivamente). Estas variables para las que la forma o expresión matemática de su función se deduce son las que tienen distribuciones de probabilidad teóricas. Una distribución de probabilidad teórica puede tomarse como modelo para explicar y/o describir el comportamiento de una variable de interés, y así podrá utilizarse para realizar predicciones y calcular probabilidades asociadas a los valores posibles de esa variable. Este modelo es una representación simplificada de la realidad. Vamos a estudiar distribuciones de probabilidad teóricas discretas y continuas que son de gran aplicación en las Ciencias Naturales:

D. de probabilidad discretas

D. de probabilidad continuas

binomial (b) poisson (binomial ( b p ) hipergeométrica ( h ) p) hipergeométrica (h)

normal (n) t de Student (normal ( n t ) Chi cuadrado ( X 2 ) F de Snedecor ( F t) Chi cuadrado (X 2 ) F de Snedecor (F)

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS

DISTRIBUCIÓN BINOMIAL

En muchos casos el experimento aleatorio que realizamos puede tener sólo dos resultados posibles, mutuamente excluyentes, a los que arbitrariamente llamamos éxito y fracaso. Por ejemplo: seleccionar un animal y registrar si es macho o hembra. Cada uno de los resultados tiene una probabilidad asociada: si p = probabilidad del resultado “éxito”, q = (1 - p) será la probabilidad del otro resultado (“fracaso”).

Un ensayo con sólo dos resultados posibles se denomina ensayo de Bernoulli. Una sucesión de n de estos ensayos se denomina proceso de Bernoulli si cumple con las siguientes condiciones:

El experimento consiste de n intentos repetidos, donde n es constante; es decir el ensayo se repite n veces. Para cada ensayo existen sólo dos resultados posibles, mutuamente excluyentes:

éxito y fracaso. La probabilidad de un éxito p es la misma en cada ensayo.

Los n ensayos son independientes.

A partir de un ensayo de Bernoulli se puede definir una variable aleatoria discreta que

tendrá una distribución de probabilidad denominada distribución binomial.

Una variable con distribución binomial se define como X : número de éxitos en n ensayos independientes

Función de distribución binomial

=   n   p q

f

(

 

)

= b

(

 

)

n

x

(

x

)

x

;

x n

,

p

para x = 0, 1, 2,

, n

x

 

En realidad, la ecuación anterior define una familia de distribuciones de probabilidad, cada una caracterizada por los valores específicos de n y p. A estos valores únicos necesarios para definir la distribución se los denomina PARÁMETROS.

Como cualquier variable con distribución de probabilidad satisface las condiciones:

f(x) 0

y

f(x) =

1 , donde f(x) = P(X = x)

Ejemplo: Consideremos el siguiente ensayo de Bernoulli: de una bolsa de semillas de tomate se extrae una y se pone a germinar. Pasados 10 días se registra el resultado: si germina se considera un éxito, si no germina se considera un fracaso. Se repite este ensayo dos veces más. Se sabe que el 75% de las semillas de tomate son viables (o sea que germinan), es decir que la probabilidad de éxito p es 0.75. Todos los resultados posibles del experimento son:

S = {GGG; GGN; GNG; GNN; NGG; NGN; NNG; NNN }

En este ejemplo el ensayo de Bernoulli se repite tres veces (n = 3), y la probabilidad de éxito p = 0.75.

Si transformáramos los resultados del experimento en una variable aleatoria X definida

como el número de éxitos, es decir el número de semillas germinadas en la muestra de tres, obtendríamos una distribución de probabilidad para esta variable. Esta variable tiene distribución binomial, ya que satisface las condiciones planteadas anteriormente. Podemos, entonces, anticipar los valores que tomará la variable y calcular la probabilidad de registrar cada uno de los valores posibles de esa variable usando la función. La probabilidad de obtener, por ejemplo, una semilla germinada al repetir el ensayo 3 veces, se calcula utilizando la función de la distribución binomial f(x) para la variable X b (n = 3; p = 0,75) :

P

(

X

= 1)

=

f

(1)

=   n   p

 

x

x

q

(

n x

)

=   3

1

 

0.75 0.25

1

(3

1)

=

0.140

La distribución de probabilidad definida será:

x

i

Probabilidad

0

0,016

1

0,140

2

0,422

3

0,422

Características de la distribución binomial:

Los parámetros que la definen son n y p. La probabilidad de éxito p es constante. La ocurrencia de un éxito en un ensayo es independiente de la de otro ensayo. El número de repeticiones del ensayo n, es constante. La variable X es discreta, puede asumir n +1 valores diferentes, en un rango de 0 hasta n. La media E(X) = = np , y la varianza V(X) = 2 = npq

La distribución binomial es aplicable también a variables aleatorias derivadas de experimentos que consisten en realizar muestreos sucesivos con reposición. Ejemplos: número de respuestas correctas en un examen de 8 preguntas, número de vacas preñadas en una muestra de 7, número de semillas germinadas en un lote de 10 semillas, número de peces machos en una muestra de 5 peces tomada con reposición de un estanque de cría.

DISTRIBUCIÓN HIPERGEOMÉTRICA

Cuando se realiza un experimento que consiste en repetir un ensayo n veces, en el que los resultados posibles de cada ensayo son éxito y fracaso, pero los resultados de cada ensayo no son independientes, no podemos aplicar la función de distribución binomial para calcular las probabilidades. Los ensayos repetidos no formarían un proceso de Bernoulli. Un caso en el que se considera que los ensayos no son independientes es cuando el experimento consiste en muestreos sucesivos sin reposición de una población finita, compuesta por elementos que pueden ser clasificados en dos categorías mutuamente excluyentes (a los que llamaremos arbitrariamente éxito y fracaso). En ese caso las probabilidades de éxito de cada ensayo no serían independientes. A partir de ensayos de este tipo se puede definir una variable aleatoria discreta que tendrá una distribución de probabilidad denominada distribución hipergeométrica. Esta variable se define como X: número de éxitos en n ensayos repetidos no independientes entre sí

Para deducir la función de distribución hipergeométrica debemos conocer las cantidades N, n y k. N: número de elementos en la población = tamaño de la población n: número de elementos en la muestra = tamaño de la muestra k: número de éxitos en la población = número de elementos en la población que presentan la característica de interés a la que arbitrariamente se denomina “éxito”. Podemos deducir que (N – k) = n° de fracasos en la población y (n – x): n° de fracasos en la muestra.

función de distribución hipergeométrica  k    N k    
función de distribución hipergeométrica
 k    N k 
 
 
 
x
n
x
  
f (x)
=
h(x; N , n, k)
=
para x = 0, 1, 2,
,n
 N 
 
n 

La ecuación anterior define una familia de distribuciones de probabilidad, cada una caracterizada por los parámetros N, k y n. Ojo: El InfoStat utiliza la letra m para denotar el tamaño de la población

Ejemplo: Se seleccionan 4 alumnos sin reposición de Estadística de un grupo formado por 3 estudiantes de Agronomía y 5 estudiantes de Recursos Naturales. Se define la variable número de alumnos de Agronomía en esa muestra. Por ejemplo, la probabilidad de obtener un éxito será, o sea la probabilidad de que en la muestra uno de los alumnos sea de Agronomía, P (x = 1):

Sabemos que n = 4, k = 3, y se deduce que N = 8

  

k

n

   (

(

N

n

k )

3 5

3

  

x

)

  

1

 

N

x

8

4

 

3.10

=

70

= 0.429

Características de la distribución hipergeométrica:

Se repiten n veces los ensayos, n es constante. Existen dos resultados posibles, mutuamente excluyentes,
Se repiten n veces los ensayos, n es constante.
Existen dos resultados posibles, mutuamente excluyentes, para cada ensayo.
Los n ensayos no son independientes.
La probabilidad de éxito no es constante de un ensayo a otro.
La variable X es discreta, puede asumir n + 1 valores diferentes, en un rango de 0
hasta n.
Los parámetros que la definen son N, k y n.
La media y la varianza de esta distribución se definen como:
 k   N
N
n 
2
E
( X
) =
=
n k
V
(
X
) =
=
n
k  
N
 
N
 
N
 
N
1
 

Ejemplos: número de pejerreyes macho en una muestra de 6 peces tomada sin reposición de un estanque de cría, número de plantas enfermas en una muestra simultánea de 3 plantas tomadas de un lote de 30 plantas sanas y 50 enfermas, número de alumnos de Biología en una muestra de 20 alumnos tomada sin reposición de la Facultad de Ciencias Naturales.

DISTRIBUCIÓN DE POISSON

Una variable aleatoria podría surgir de observar el número de ocurrencias de un hecho (nº de éxitos) en una unidad especificada. Por ejemplo: el número de hormigueros por ha, el número de peces capturados por hora de pesca, el número de semillas por vaina, el número de bacterias por litro de agua, etc.

La unidad especificada puede referirse a un intervalo de tiempo, una unidad de área, de volumen, etc (en los ejemplos mencionados eran respectivamente una ha, una hora de pesca, una vaina, un litro de agua). Una variable aleatoria discreta X que se define como el nº de ocurrencias de un hecho (o el nº de éxitos) en una unidad especificada tendrán una distribución de probabilidad definida como distribución de poisson si cumplen las siguientes propiedades:

El número de ocurrencias de un hecho en una unidad es independiente del de otra unidad. La ocurrencia de un hecho en una unidad es independiente de la ocurrencia de otro hecho en la misma unidad. El número medio de ocurrencias de un hecho en una unidad es directamente proporcional al tamaño de la unidad. La probabilidad de ocurrencia de un hecho en una unidad muy pequeña, es tan pequeña que se despreciable, se trata por tanto de sucesos “raros”.

Como las demás distribuciones teóricas de probabilidad, podemos definir su función:

Función de distribución poisson

x

f

(

x

)

=

(

p x

;

)

=

.

donde x = 0, 1, 2,

, µ

 

x !

e

El único parámetro necesario para definir por completo la distribución es . es el número medio de ocurrencias de un hecho por unidad especificada, es decir es la media de esta distribución.

Características de la distribución de poisson:

El número medio de ocurrencias de un hecho, lamba ( ), es proporcional al tamaño de la unidad especificada. La probabilidad de ocurrencia de un hecho es constante para cada unidad especificada. La variable X es discreta, puede asumir valores diferentes, en un rango de 0 a . La ocurrencia de un hecho es independiente de la ocurrencia de otro hecho en la misma unidad o en otra unidad. El parámetro que la define es .

= 2 =

La media y la varianza de la distribución son iguales :

Ejemplos: número de hojas por planta, número de nidos por árbol, número de huevos por nido, número de semillas por fruto, número de crías por camada.

EJEMPLOS DE APLICACIÓN para distribuciones discretas

Podemos resolver problemas referidos a las distribuciones de probabilidad utilizando el programa InfoStat. Se debe entrar en el menú principal “Estadísticas” y seleccionar la opción “Probabilidades y cuantiles”. Entonces se despliega un cuadro de diálogo que pide

que indiquemos cuál es la distribución teórica de interés, qué valores tienen sus parámetros y para qué valor de la variable queremos calcular las probabilidades (x i ). Una vez indicada esta información se hace clic sobre el botón “calcular” y el programa nos provee las cantidades: P(X<=x i ) , P(X>x i ) y P(X= x i )

Ejemplo 1: Se sabe que el 60% de la descendencia de cierta especie de ratones es de color negro. Si se analizan camadas de tamaño 10 de esta especie, cuál será la probabilidad de se registren:

a) 2 crías de color negro. b) más de 5 crías de color negro. c) entre 2 y 5 crías de color negro. d) no más de 4 crías de color negro.

Solución:

X: número de ratones de color negro en una camada de 10.

X tiene distribución binomial ya que el hecho de que una cría sea de color negro no incide sobre el color de otra cría, los ensayos (cada uno de los 10 nacimientos) son independientes.

los parámetros son: n = 10, p = 0.6

X

b (n = 10; p = 0,6)

a)

f

P (X = 2), aplicando la función

(

x )

=   n   p

x

 

x

q

( )

n

x

f

(2)

=   10

0,60 0,40

2

2

(10

2)

=

0,0106

b)

Aplicamos la función para cada valor de la variable que incluye el suceso y luego sumamos P (X > 5 ) = P (X = 6) + P (X = 7) + P (X = 8) + P (X = 9) + P (X = 10) = 0.633

También podemos deducir esta probabilidad como P (X > 5 ) = 1 - P (X

5)

c)

P (2

X

5) =

P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) =

 
 

=

P ( X

5 ) - P

( X

1) = 0.367 - 0.002 = 0.365

 

También podemos deducir esta probabilidad como P (2

X

5) =

P (X

5) + P (X

1)

d) P (X

4) = P (X = 4) + P (X = 3) + P (X = 2) + P (X = 1) + P (X = 0) = 0.166

Ejemplo 2:

experimento de laboratorio es 4. a) ¿Cuál es la probabilidad de que se formen 6 colonias en un

día?

Solución:

X: n° de colonias formadas por día

X tiene distribución de poisson ya que se define el número de éxitos (que se forme una colonia) en

una unidad especificada (un día) El parámetro es: = 4 X p ( = 4)

Se sabe que el número medio de colonias de bacterias que se forman por día en un

P

(X = 6) aplicando la función

f

(

x

)

=

p x

(

;

)

=

x 4 6 e . e .4 f (6) = x ! 6!
x
4
6
e
.
e
.4
f (6) =
x !
6!

= 0,104

b)

X: n° de colonias formadas cada 3 días (cambió la unidad especificada, ahora es tres días)

X tiene distribución poisson pero cambió su parámetro, ya que se triplicó el tamaño de la unidad,

entonces: = 4x3 = 12

¿Cuál es la probabilidad de que se formen 11 colonias en 3 días?

X

p (

= 12).

P (X = 11) =

f (11) =

e

12

.12

11

11!

= 0,114

Ejemplo3: Se necesitan seleccionar al mismo tiempo 4 alumnos de un grupo de 420 alumnos de la Facultad de Ciencias Naturales compuesto por: 158 de Recursos Naturales, 142 de Biología y 120 de Agronomía.

a) ¿Cuál es la probabilidad de que dos de ellos sean de Recursos Naturales?

X: n° de alumnos de RRNN en una muestra de 4 seleccionados sin reposición.

La característica considerada éxito en este caso es “que sea de RRNN”.

X tiene distribución hipergeométrica con parámetros: k = 158 (nº de alumnos de RRNN en la población), N = 420 (tamaño de la población), n = 4 (tamaño de la muestra).

X

h (k = 158, N = 420, n = 4)

P ( X = 2) = 0.332

f

(2)

=

158   420

 

2

4

2

158

420

4

=

12403 34191

1278098745

= 0,332

b) ¿Cuál es la probabilidad de que por lo menos dos sean de Biología?

X: n° de alumnos de Biología una muestra de 4 seleccionados sin reposición. La característica considerada éxito ahora es “que sea de Biología”.

X

h (k = 142, N = 420, n = 4)

P ( X 2) = 1 - P( X

1) = 1 – (0.190 + 0.395) = 1 - 0.584 = 0.416

f

(0)

=

142   420     420

142

0

0

4

4

= 0.190

f

(1)

=

142   420     420

142

1

1

4

4

=

0.395

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS

DISTRIBUCIÓN NORMAL

La distribución normal, también llamada distribución gaussiana o de Laplace, es la distribución de probabilidad más importante en toda la Estadística Clásica, ya que muchas variables continuas, así como varios estadísticos siguen este modelo de distribución.

Muchas de las variables de interés en Ciencias Naturales tienen distribuciones continuas que siguen este modelo, por ejemplo: longitud total del cuerpo, altura de plantas, nivel de ruido en decibeles, área de distribución de una especie, longevidad promedio, concentración de urea en sangre, entre otras.

La función de densidad está dada por la fórmula:

1 ( 2 , -•••• •••• x ) 2 / 2 f ( x )
1
(
2 , -••••
••••
x
)
2 / 2
f
(
x
) =
e
2

Donde = 3,14159 y e = 2,71828.

Características de la distribución normal:

1. Su campo de variación es desde -•••• hasta +•••• .

2. Es simétrica respecto a su media µ. Esto implica que a dos valores situados a la misma distancia del valor medio por izquierda y por derecha de la distribución, les corresponde la misma probabilidad. P ( µ - a < x < µ) = P ( µ < x < µ + a)

3. La media, la mediana y la moda coinciden. Me = µ = Mo

3. La media, la mediana y la moda coinciden. Me = µ = Mo 4. El

4. El área total debajo de la curva por encima del eje de las x es igual a uno, como en todas las densidades de probabilidad. En símbolos: P(- • < x < • ) = 1 . De esta característica se deduce que el 50 % del área está a la derecha de la perpendicular levantada en la media µ y el 50 % está a la izquierda de la misma. En símbolos: P(- • < x < µ) = 0,5 y P( µ < x < • ) = 0,5.

5. La distancia horizontal que hay desde el punto de inflexión de la curva (el punto donde la curva deja de ser cóncava hacia abajo y empieza a ser cóncava hacia arriba) hasta una perpendicular levantada sobre la media es igual a la desviación estándar .

0,40 0,30 0,20 0,10 0,00 -4,00 -3,00 -2,00 -1,00 0,00 1,00 2,00 3,00 4,00
0,40
0,30
0,20
0,10
0,00
-4,00 -3,00 -2,00 -1,00
0,00
1,00
2,00
3,00
4,00

6. El área bajo la curva entre los puntos (µ + una desviación estándar) y (µ - una desviación estándar) corresponde aproximadamente al 68 % del área total de la curva.

En símbolos: P( µ -

Entre µ ± 2 se encuentra aproximadamente el 95 % del área total de la curva, es decir:

P(µ - 2 <<<< x <<<< µ + 2 ) = 0,954.

Entre

P(µ - 3 <<<< x <<<< µ + 3 ) = 0,998. Esta última característica permite distribución normal.

la

aproximar

µ ± 3 se encuentra aproximadamente el 99 % del área total de la curva, o sea :

<<<< x <<<< µ +

) = 0,682.

variables

de

recorrido

finito

a

7. La distribución normal queda completamente determinada por sus parámetros µ y σ.

La media µ está comprendida entre - y +. La varianza ²debe ser finita ( ²> 0).

Distintos valores de µ desplazan la curva sobre el eje de las x; distintos valores de ² determinan el mayor o menor grado de curtosis de la curva.

Para calcular probabilidades de la distribución normal deberíamos aplicar la operación integral a la función de densidad, reemplazando los parámetros µ y por los valores de alguna combinación en particular. El procedimiento sería complicado y casi imposible de realizar a mano.

No es práctico tener una tabla para cada distribución normal posible, serían infinitas tablas. Existe una distribución normal particular que se encuentra ampliamente tabulada:

la distribución normal estandarizada.

DISTRIBUCIÓN NORMAL ESTANDARIZADA (Z)

La variable aleatoria Z tiene una distribución normal particular cuya media vale 0 y cuya varianza vale 1 :

Z ~ n (0,1)

Existe un procedimiento matemático, la estandarización, a través del cual se puede transformar a cualquier variable X con distribución normal con media µ y desviación estándar , X ~ n (µ, ), en la distribución normal estandarizada Z ~ n (0,1). Para ello primero debemos correr el origen hacia la media de la distribución para que la nueva media sea cero: cada valor se expresa como desvíos de su media, o sea (x - µ). Luego debemos cambiar la unidad de medida, para transformarla en unidades de desviación estándar, para lo cual debemos dividir los desvíos por . Así resulta la transformación:

x Z =
x
Z =

Cada valor Z nos dice a qué distancia está el valor de la media, esa distancia está medida en “número de unidades de desviación estándar” o “número de desviaciones tipificadas”

Por ejemplo:

Z = 1,3 significa que el valor de la variable está a una distancia equivalente a 1,3 unidades de desviación típica por encima de la media.

Z = - 2,7 significa que el valor de la variable está a 2,7 unidades de desviación típica por debajo de la media

Dada una variable X ~ n (µ = 30, = 6), ¿qué valor le corresponderá a X = 32 en la distribución Z? Para responder estandarizamos el valor 32:

Z

=

x

32

30 =

=

6

0,33

Respuesta: le corresponde el valor 0,33.

¿Cómo calcular probabilidades asociadas a valores de una variable con d. normal? * Aplicando la operación integral a la función de densidad, reemplazando los parámetros µ y . DIFÍCIL!!

* Usando una tabla de distribución de probabilidades, que indica cuál es el valor de probabilidad para diferentes intervalos de valores de Z (normal estandarizada)

* Usando InfoStat

Ejemplo 4:

Se sabe que la altura de las plantas de maíz de dos semanas es una variable

aleatoria con distribución aproximadamente normal, con µ = 12 cm y = 1 cm.

Si se analiza una planta extraída al azar de la población, ¿cuál es la probabilidad de que:

a) Mida más de 13 cm.

b) Mida entre 10 y 12,5 cm.

c) Mida menos de 11,7 cm.

d) Mida entre 12,5 y 14 cm.

e) Qué medida es superada por el 68% de los datos?

Solución:

X: altura de plantas de maíz Parámetros: = 12 cm y = 1 cm

Normal(12,1): p(evento)=0,1587 0,40 0,30 0,20 1 0,10 0,00 8 9 11 12 13 15 16
Normal(12,1): p(evento)=0,1587
0,40
0,30
0,20
1
0,10
0,00
8
9
11
12
13
15
16
Normal(12,1): p(evento)=0,3821
0,40
0,30
0,20
0,10
0,00
8
9
11
12
13
15
16

1

12 =

Z =

0,3

13

12 =

1

a) Mida más de 13 cm

P ( X 13) = = P(Z 1) = 0,1587

d) Mida menos de 11,7 cm

P(X

11,7)

Z =

11,7

= P (Z

-0,3) = P( Z 0,3) = 0,3821

c) Mida entre 10 y 12,5 cm

P( 10

X

12,5) =

Z =

Z =

10

12 =

1

12,5

12 =

1

2

0,5

0,40

0,30

0,20

0,10

0,00

Normal(12,1): p(evento)=0,6687 8 9 11 12 13 15 16
Normal(12,1): p(evento)=0,6687
8
9
11
12
13
15
16

P( -2

Z

0,5) = 1 – P ( Z

-2) – P( Z 0,5) = 1 – P ( Z 2) – P( Z 0,5)

= 1 – 0,0228 – 0,3085 = 0,6687

d) Mida entre 12,5 y 14 cm

P( 12,5

X

14) =

Z =

12,5

12 =

1

0,5

Z =

14

12 =

0,40

0,30

2 0,20

1 0,10

0,00

P( 12,5 = P( 0,5

X

Z

14) = 2) = P (Z 0,5) – P( Z 2) = = 0,3085 – 0,0228 = 0,2857

Normal(12,1): p(evento)=0,2858 8 9 11 12 13 15 16
Normal(12,1): p(evento)=0,2858
8
9
11
12
13
15
16

e) ¿Qué medida es superada por el 68% de los datos? Puede expresarse como: ¿qué valor de la variable deja el 68% de la distribución a la derecha?

P ( X > x i ) = 0,68 P ( Z > z i ) = 0,68

Normal(12,1): p(evento)=0,6808 0,40 0,30 0,20 0,10 68% 0,00 8,00 10,00 12,00 14,00 16,00
Normal(12,1): p(evento)=0,6808
0,40
0,30
0,20
0,10
68%
0,00
8,00
10,00
12,00
14,00
16,00

P (Z < z i ) = 0,32 (el valor que deja a la derecha el 68% de la distribución también deja por debajo el

32%)

buscamos en el interior de la tabla normal el valor de probabilidad 0,32 (o el más parecido) y luego vemos a qué valor de la variable Z corresponde z i = -0,47 Finalmente des-estandarizamos el valor -0,47:

X i = Z i .

+ µ = -0,47 . 1 + 12 = 11,53 cm

IMPORTANCIA DE LA DISTRIBUCIÓN NORMAL

1)

correspondientes a esta variable muchas pruebas estadísticas que requieren de esta condición.

2) El saber si una variable tiene distribución normal puede confirmar o rechazar hipótesis fundamentales acerca de la naturaleza de los factores que afectan el fenómeno estudiado. Esto tiene que ver con las suposiciones exigidas para la normalidad: los factores que afectan a una variable distribuida normalmente son aditivos, independientes y de igual varianza.

Si la variable considerada tiene distribución normal se podrán aplicar a los datos

3) Si analizamos una variable que suponemos que tiene distribución normal, las desviaciones de la normalidad pueden alertar sobre la fiabilidad de los datos. Por ejemplo:

Si la distribución es bimodal puede indicar mezcla de poblaciones. Si la distribución es asimétrica puede indicar que el muestreo fue selectivo, y no están representados los valores de alguno de los extremos de la distribución.

4) Suponiendo la normalidad de la variable se pueden hacer predicciones, es decir, contestar preguntas de probabilidad igual que hicimos con las distribuciones de probabilidad de variables aleatorias discretas.

5) Muchas variables no normales pueden convertirse en normales aplicando alguna transformación como logaritmo, raíz cuadrada, inversa de x, etc; pudiendo entonces aplicar pruebas estadísticas que requieran normalidad.

6) Gran parte de los estadísticos muestrales tienen distribución normal. En estos casos podemos hacer inferencias respecto de los valores paramétricos de la población, a partir de estadísticos muestrales.

Algunas aplicaciones de la distribución normal:

prueba de hipótesis y estimación de

prueba de hipótesis y estimación de prueba de hipótesis y estimación de prueba de hipótesis y estimación de

DISTRIBUCIÓN t DE STUDENT

(diferencia de medias)

(diferencia de proporciones)

Se tiene una población de N elementos y se está estudiando una variable de tipo continua X. Podemos suponer que: X n ( , ) Si extraemos una muestra de n individuos a los cuales se les mide dicha variable en estudio, obtenemos los siguientes datos:

X 1 , X 2 , X 3 ,

, X n

Estos valores también se distribuirán en forma normal n ( , ). Si la muestra es representativa de la población de origen, es lógico suponer que las observaciones muestrales también son variables aleatorias con media y desviación típica . Efectuando una transformación z obtenemos la siguiente serie de variables normales estandarizadas:

Si hacemos el cociente:

t =

Z 1 , Z 2 , Z 3 ,

, Z n

 

i

Z 1 + Z 2 + Z 3 + + Z n / n

Z

1

+

Z

2

+

Z

3

+

+

Z

n

/

n

t

i = 1, 2, 3

, n

Esta variable que simbolizamos con t tiene distribución t de Student con grados de libertad.

La variable con distribución t de Student se define como el cociente entre una variable normal estandarizada y la raíz cuadrada de la suma de variables aleatorias normales dividido n.

Características de la distribución t:

El campo de variación es de - a Tiene forma de campana simétrica La media vale 0, la desviación típica es mayor que 1 Comparada con la distribución normal estandarizada (Z), es más alta en las colas y más baja en el centro. El área total debajo de la curva de distribución t es igual a 1 Existe una familia de distribuciones t cada una de las cuales depende de los grados de libertad ( ). Cuanto mayor es más se parece la distribución a la normal estandarizada. Para grados infinitos de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a la distribución t es .

de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a
de libertad (en la práctica cuando 30) las curvas son iguales. El parámetro que define a

normal 0,37 0,28 t de student 0,18 0,09 0,00 -8,66 -4,33 0,00 4,33 8,66 Densidad
normal
0,37
0,28
t de student
0,18
0,09
0,00
-8,66
-4,33
0,00
4,33
8,66
Densidad

Variable

Para realizar cálculos de probabilidades asociadas a valores de t se utilizan las tablas de distribución de t de Student.

Algunas aplicaciones de la distribución t de Student :

prueba de hipótesis y estimación de prueba de hipótesis y estimación de prueba de hipótesis y estimación del coeficiente de regresión prueba de hipótesis y estimación de d (media de la diferencia de muestras pareadas) prueba de hipótesis para el coeficiente de correlación

DISTRIBUCIÓN CHI CUADRADO

X 2

Se tiene una población de N elementos y se está estudiando una variable de tipo continua X. Podemos suponer que: X n ( , )

Si extraemos una muestra de n individuos a los cuales se les mide dicha variable en

estudio, obtenemos los siguientes datos: X 1 , X 2 , X 3 ,

Efectuando una transformación z obtenemos la siguiente serie de variables normales

estandarizadas: Z 1 , Z 2 , Z 3 ,

Si elevamos al cuadrado cada una de estas variables normales estandarizadas y las sumamos, obtenemos:

, X n

/

, Z n

donde cada Zi = X1-

2 = Z

1

2 + Z

2

2 + Z

2

3

+

2

+Z

n

2
2

La suma de las Z i 2 es lo que se llama variable chi cuadrado y se simboliza X 2 .

La distribución chi cuadrado es la suma de n variables estandarizadas elevadas al cuadrado.

Características de la distribución X 2 :

Su campo de variación va de 0 a . La curva de distribución es asimétrica positiva . Los valores de X 2 dependen de las observaciones muestrales y de . Si es mayor los valores de X 2 serán mayores, es decir que habrá una curva de distribución X 2 para cada valor de (el valor , que especifica la cantidad de

sumandos independientes que intervienen en la definición de una variable X 2 se denominan grados
sumandos independientes que intervienen en la definición de una variable X 2 se
denominan grados de libertad).
La asimetría disminuye al aumentar .
La esperanza matemática de una distribución X 2 es igual a sus grados de
libertad.
E(X 2 ) =
La varianza de una distribución X 2 es igual al doble de sus grados de libertad
V(X 2 ) = 2
El parámetro que define a la distribución X 2 es
0,24 d = 3 0,18 0,12 d = 12 d = 30 0,06 0,00 0,00
0,24
d = 3
0,18
0,12
d = 12
d = 30
0,06
0,00
0,00
5,00
10,00
15,00
20,00
Densidad

Variable

Algunas aplicaciones de la distribución X 2

-Estadística paramétrica: prueba de hipótesis y estimación de -Estadística no paramétrica: prueba de bondad de ajuste a la distribución normal prueba de bondad de ajuste a una distribución teórica prueba de independencia prueba de homogeneidad prueba de ajuste a proporciones teóricas

DISTRIBUCIÓN F DE SNEDECOR

Si definiéramos dos variables X 2 , podremos efectuar el cociente entre estas dos variables, dividiendo a cada una por sus correspondientes grados de libertad, obteniendo una distribución F de Snedecor

2 / 1 1 F = F 2 ( , ) / 1 2 2
2
/
1 1
F =
F
2
(
,
)
/
1
2
2 2

La variable así definida tiene distribución F con 1 y 2 grados de libertad, donde 1 se define como los grados de libertad del numerador y 2 como los grados de libertad del denominador.

Características de la distribución F:

El campo de variación va de 0 a

0

F

Es una curva asimétrica positiva.

Sus parámetros son 1 y 2.

La forma de la curva depende de los grados de libertad: al incrementarse los grados de libertad, la curva se va haciendo más simétrica.

1,2 1,0 0,7 0,5 0,2 0,0 0,00 2,00 4,00 6,00 8,00 Densidad
1,2
1,0
0,7
0,5
0,2
0,0
0,00
2,00
4,00
6,00
8,00
Densidad

Variable

Propiedad recíproca:

Si X es una variable ~ F ( 1; 2 ) y

Y = 1 /X , tendrá una distribución ~ F ( 2; 1 ).

Una F con 1 y 2 grados de libertad que acumula una probabilidad

recíproca de una F con los grados de libertad cambiados de orden ( 2 , 1 ) y una probabilidad igual a 1 -

es igual a la

F

(

1

,

2

;

)

=

1

F

(

2

,

1

;

1

)

Aplicación de la distribución F: prueba de homogeneidad de varianzas

GRADOS DE LIBERTAD

El concepto de grados de libertad es un concepto matemático. Corresponde al número de observaciones linealmente independientes que intervienen en una suma de cuadrados; es decir, las observaciones que son libres de variar. Se encuentran mediante la fórmula (n – 1), donde n es el número de sujetos en la muestra, aunque también pueden ser representados por (k - 1), donde k es el número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales.

Para generalizar, el número de grados de libertad puede definirse como:

- el número de elementos que pueden escogerse libremente

- el número de variables que pueden variar libremente

- el número de variables independientes.

También podemos decir que dado el tamaño de la muestra n, = (n – m), donde m es el número de restricciones impuestas para los cálculos de un estadístico que abarca sumas de cuadrados. Las restricciones pueden referirse a las mencionadas anteriormente o al número de parámetros que se deben estimar para el cálculo del estadístico.

Por ejemplo para calcular la varianza muestral de un conjunto de datos utilizamos una

suma de cuadrados: S 2 = (x i - x ) 2 / g l

Al calcular los desvíos de cada valor respecto de la media, uno de ellos no resulta independiente ya que debe cumplir con la restricción impuesta por la propiedad de la

media: (x i - x ) = 0. Por lo tanto, uno de los desvíos no es linealmente independiente del resto los grados de libertad se calculan como (n - 1).

Valores x i

(x i -

x )

3

(3 - 7) = - 4

6

(6 - 7) = -1

12

(12 - 7) = 5

sumatoria

0

La media de estos valores es 7.

Si calculamos los desvíos de cada valor respecto de

la media vemos que suman cero.