Вы находитесь на странице: 1из 24

TEMA X – FUNCIONES DE PROBABILIDAD Y FUNCIONES DE

DENSIDAD

1. DISTRIBUCION BINOMIAL. CONDICIONES PARA SU APLICACIÓN. ESPERANZA Y VA-


RIANZA

Una distribución de probabilidad discreta de suma utilidad para la descripción de mu-


chos fenómenos, es la distribución binomial. Fue estudiada originalmente por el matemático
Bernoulli por lo cual también se la conoce como la Distribución o Fórmula de Bernoulli.

Para aplicar la Distribución Binomial, los sucesos o eventos deben cumplir con las si-
guientes condiciones:

Cada observación se puede considerar como seleccionada de una población infinita o


finita con reemplazamiento

Se realiza un experimento aleatorio que sólo puede generar resultados dicotómicas, lo


cual quiere decir que sólo puede dar lugar a la ocurrencia de dos sucesos posibles: el
suceso A o su opuesto A .

El experimento aleatorio se realiza n veces manteniendo la independencia entre las dis-


tintas realizaciones. El resultado (éxito o no éxito) del experimento aleatorio, realizado n
veces, es independiente de cualquier otro resultado.

En cualquier realización del experimento la probabilidad de A es igual a p y, por consi-


guiente, la probabilidad de A es (1-p) = q. Como por la tercera condición las probabili-
dades p y q se mantienen constantes, entonces:
P( A) = p y P( A) = 1 − p = q

En las condiciones indicadas precedentemente, se desea calcular cuál es la probabili-


dad de que, en las n realizaciones del experimento, se presente x veces el suceso A.

La variable aleatoria discreta o fenómeno de interés que sigue la distribución bino-


mial es el número de éxitos obtenidos en una muestra de n observaciones.

Ejemplo: Si en la concesionaria se seleccionan tres ventas con reposición y deseamos


calcular la probabilidad de que las ventas correspondan a autos nacionales, podemos ver
que este problema satisface las cuatro condiciones:

Al realizar la selección de las tres ventas con reposición, se puede considerar como
una muestra extraída de una población infinita de ventas

Cuando se hace la selección, cada observación se categoriza como auto Nacional (éxi-
to) o auto Importado (no éxito)

177
la probabilidad de que salga un auto Nacional, p, en una extracción es 5/8, y se supo-
ne que permanece constante en todas las observaciones. Por tanto, la probabilidad
de fracaso será de 3/8 en cada selección.

En cualquier realización del experimento la probabilidad de N es igual a p = 5/8 y, por


consiguiente, la probabilidad de N = I es (1-p) = q = 3/8. Como por la tercera condi-
ción las probabilidades p y q se mantienen constantes, entonces:

P( N) = p =
5
8
( ) 5
y P N = P ( I) = 1 − p = 1 − = q =
8
3
8

Vamos a analizar las tres ventas seleccionadas. Consideramos éxito que el auto sea
Nacional (N) y no éxito que el auto sea Importado (I). Como vimos en la Unidad X, al cons-
truir la distribución de probabilidad, los casos posibles son: ningún auto Nacional, un auto
Nacional, dos auto Nacionales o tres auto Nacionales.

La variable de interés (auto Nacional) puede tomar los valores: 0, 1, 2, 3 y ningún


otro. La variable aleatoria puede variar entre 0 y n (el número de extracciones).

Vamos a calcular la probabilidad de sacar dos autos Nacionales en tres extracciones.

Supongamos que la primera secuencia es la siguiente:


S1 = N y N e I
2
 5  3 75
P(S1 ) = P(N y N e I ) = P(N )P(N )P(I ) = p p q = p 2 q =   =
 8  8 512

La segunda forma en que se pueden presentar los resultados esperados es:


S2 = N e I y N
2
 5  3 75
P(S2 ) = P( N e I y N ) = P(N )P(I )P(N ) = p q p = p q =   =
2

 8  8 512

La tercer forma en que se pueden presentar los resultados esperados es:


S3 = I y N y N
2
 5  3 75
P(S3 ) = P( I y N y N ) = P(I )P(N )P(N ) = q p p = p q =   =
2

 8  8 512

La probabilidad de que sean seleccionados dos autos Nacionales en tres extracciones


es igual al número de sucesiones posibles por la probabilidad de una sucesión particular

P(n = 3; x = 2 ) = 3 x
75 225
=
512 512

178
 n 3 3!
El número de sucesiones posible es igual a:   =   = =3
   
x 2 2! (3 − 2 )!

La fórmula de la probabilidad binomial es:

 n
P(en n realizaciones se presente x veces A) =  

px qn − x
x
 

Retomando el ejemplo de la concesionaria, aplicando la fórmula podemos calcular la


probabilidad de seleccionar: ningún auto nacional, un auto nacional, dos autos nacinales y
los tres nacionales:

0 3−0 3
 3  5   3  3!  3  27
P(n = 3; x i = 0) =      =   =
 0  8   8  0!(3 − 0)!  8  512

1 3−1 2
 3  5   3 3! 5  3  135
P(n = 3; x i = 1) =      =   =
1  8  8 1!(3 − 1)! 8  8  512

2 3− 2 2
 3  5  3 3!  5  3 225
P(n = 3; x i = 2) =      =   =
 2  8  8 2!(3 − 2)!  8  8 512

3 3−3 3
 3  5  3 3!  5  125
P(n = 3; x i = 3) =      =   =
 3  8  8 3!(3 − 3)!  8  512

N
La condición de cierre es aquélla que establece que la ∑ pi = 1 .
i =1
El cumplimiento de esa condición, en el caso de la Distribución Binomial, se demues-
tra sumando las probabilidades a lo largo de todo el campo de variación de la variable, es
n
 n x n − x
decir, haciendo ∑  x 
i=0
p q .

Si en esta última expresión se desarrolla la sumatoria entre 0 y n, se obtiene


 n x n − x  n 0 n  n 1 n − 1  n
n

∑i=0
 p q
 x
=   p q +   p q +...+  p n q 0 = ( p + q ) n según la fórmula de Newton para el
 0  1  n

desarrollo del binomio. Pero de acuerdo con las condiciones de la Distribución Binomial, co-
mo ( p + q ) = 1 , también será ( p + q ) n =1, de modo que queda demostrada la condición de cie-
rre en esta Distribución. Asimismo queda en evidencia que el nombre binomial proviene del
hecho que cada término del binomio desarrollado precedentemente da como resultado la
probabilidad para los diferentes valores de la variable aleatoria x.

Para verificar el cumplimiento de la condición de cierre en el ejemplo de la concesio-


naria;

179
Nº de Probabilidad Resulta-
caras (x) p(x) do
numérico
0 3−0
 3  5  3 27
0 P(n = 3; x i = 0) =     
 0  8  8 512
1 3−1 135
 3  5   3 
1 P(n = 3; x i = 1) =      512
1  8   8 
2 3− 2 225
 3  5   3 
2 P(n = 3; x i = 2) =      512
 2  8   8 
3 3−3 125
 3  5   3 
3 P(n = 3; x i = 3) =      512
 3  8   8 
∑ pi = 1

La Esperanza Matemática se calcula a partir de la fórmula teórica E (x) = ∑ xi pi . En


el caso de la Distribución Binomial, la esperanza matemática es:

E ( x) = n p

Retomando el ejemplo de las ventas de la concesionaria

Nº de Probabilidad Resultado
xi p i
caras (x) p(x) numérico
0 3−0
 3  5   3  27
0 P(n = 3; x i = 0) =      0
 0  8   8  512
1 3−1 135 135
 3  5   3 
1 P(n = 3; x i = 1) =     
  512 512
1  8   8 
2 3− 2 225 450
 3  5  3
2 P(n = 3; x i = 2) =      512 512
 2  8  8
3 3−3 125 375
 3  5  3
3 P(n = 3; x i = 3) =      512 512
 3  8  8
950 ∑ pi = 1
= 1,875 E(x)=
512
En la cuarta columna del cuadro precedente se efectuó el producto xi pi, valores con
cuya sumatoria se obtiene la esperanza matemática. Sin embargo, según la demostración
teórica realizada, la esperanza también puede calcularse efectuando el producto np. Como n
= 3 y p =5/8, se verifica que, efectivamente:

E ( x ) = n p = 3 5 = 15 / 8 = 1,875 autos nacionales


8

180
Recordando que la varianza de la variable aleatoria se obtiene mediante la fórmula
N
de trabajo V (x) = ∑ xi2 pi − E (x) 2 , en la Distribución Binomial la varianza es
i =1

V ( x) = npq

y el desvío estándar es
DS ( x) = npq

Volviendo al ejemplo de las ventas de la concesionaria:

5 3 45
V( x ) = npq = 3 = = 0,7031
8 8 64

53
DS( x ) = npq = 3 = 0,7031 = 0,8385 autos nacionales
88

Nº de Probabilidad Resultado
xi2 pi
caras (x) p(x) numérico
0 3−0
 3  5   3  27
0 P(n = 3; x i = 0) =      0
 0  8   8  512
1 3−1 135 135
 3  5   3 
1 P(n = 3; x i = 1) =      512 512
1  8   8 
2 3− 2 225 900
 3  5  3
2 P(n = 3; x i = 2) =      512 512
 2  8  8
3 3−3 125 1.125
 3  5   3 
3 P(n = 3; x i = 3) =      512 512
 3  8   8 
∑ pi = 1 =
2.160
= 4,219
512

n
V( x ) = ∑ x 2 p − E (x )2 = 4,219 −1,875 2 = 0,7031
i i
i =1

2. DISTRIBUCION DE POISSON. CONDICIONES PARA SU APLICACIÓN. ESPERANZA Y


VARIANZA

Algunas de las condiciones requeridas para aplicar la Distribución de Poisson son si-
milares a las exigidas para aplicar la Distribución Binomial:

181
En cada una de las realizaciones del experimento aleatorio se presentan resultados
dicotómicos.

El experimento aleatorio se realiza n veces en condiciones de independencia, cada


uno de los posibles resultados tiene probabilidades constantes a lo largo de las reali-
zaciones del experimento.

Las n realizaciones del experimento crecen notoriamente, lo cual equivale a decir


que n → ∞ .

La probabilidad p del suceso A es notoriamente pequeña, es decir que p → 0 . Esta


condición en particular determina que se denomine a esta distribución la Distribu-
ción de los sucesos raros, considerando que la probabilidad del suceso A es muy
pequeña.

Las realizaciones del experimento se cumplen en un intervalo de tiempo continuo y


no, como en el caso de la binomial, en momentos fijos o determinados.

La fórmula para calcular la probabilidad de los sucesos que responden a las ca-
racterísticas de la distribución de Poisson es:
λx
P( x) = e− λ
x!

siendo λ (lambda) = np

Ejemplo: La probabilidad de que en el lapso de una semana en el taller de la conce-


sionaria uno de los autos vendidos tenga problemas cubiertos por la garantía es 0,02. Supo-
niendo que en el taller se atienden 450 autos semanalmente. ¿Cuál es la probabilidad de
que:
a) se presenten 5 autos con problemas por semana?
b) al menos un auto se presente con problemas?

a) λ = np = (450)( 0,02) = 9 autos


e − 9 95 (0,0001234)(59049)
P(5 autos con problemas) = = = 0,06
5! 120
e − 9 90
1. P(al menos 1 auto con problemas) = 1 − P(0 autos con problemas) = 1 - =
0!
1 − 0,0001234 = 0,9998

Para demostrar que se cumple la condición de cierre, a la fórmula de la Distribución


de Poisson se le aplica sumatoria en todo el campo de variación de la variable:
n ∞
e − λ λx
∑ pi = ∑
i =1 x =0 x!
=1

La esperanza matemática, es:

182
∞ ∞
e − λ λx
E( x ) = ∑ xp( x ) = ∑ x =λ.
x =0 x =0 x!

La varianza en el caso de la Distribución de Poisson:


∞ ∞
e − λ λx
V ( x ) = ∑ x 2 p( x ) − E ( x ) 2 = ∑ x 2 − λ2 = λ
x =0 x =0 x!

Se verifica, entonces, que la Distribución de Poisson tiene la Esperanza Matemática


igual a la Variancia, en ambos casos iguales a λ.

Como se recordará V(x) = npq, en la Distribución Binomial. Como p es muy pequeño y


se aproxima a cero, entonces su complemento (1- p) = q, debe ser muy grande y aproximar-
se a 1

Entre las condiciones requeridas para la aplicación de la Distribución de Poisson se


encuentra aquella que establece que las realizaciones del experimento aleatorio deben
cumplirse en un intervalo de tiempo continuo.

Eso permite la aplicación del principio de la proporcionalidad que establece que el


parámetro Esperanza Matemática del proceso bajo estudio, indicado en este caso con el
símbolo λ, es proporcional a la extensión total del tiempo de duración del proceso.

Por eso mismo, una Distribución de Poisson con un valor particular de  correspon-
diente a un proceso que tiene una duración determinada de tiempo, puede aplicarse sin
inconvenientes a un proceso que tiene una duración de tiempo diferente, modificando pro-
porcionalmente el valor de λ.

Ejemplo: El taller de la concesionaria atiende, en promedio, nueve autos semanales


problemas cubiertos por la garantía. ¿Cuál es la probabilidad de que se presenten dos autos
con este tipo de problemas en un día, si el taller trabaja de lunes a viernes?

Primero se calcular el valor proporcional de  para un día:


9
λ = = 1,8 autos
5

e - 1,81,8 2
P (en 1 día, 2 autos) = = 0,2678
2!

3. DISTRIBUCION HIPERGEOMETRICA. CONDICIONES PARA SU APLICACIÓN. ESPERANZA Y


VARIANZA

Tanto la distribución binomial como la hipergeométrica se ocupan de las mismas


cuestiones: el número de éxitos en una muestra que contenga n observaciones. Lo que dife-
rencia a éstas dos distribuciones de probabilidad discreta y las expresiones matemáticas que

183
se derivan de ellas es la forma en que se obtienen los datos. Para la distribución binomial, los
datos de la muestra se extraen con reemplazamiento de una población infinita o finita con
reemplazamiento. Para la distribución hipergeométrica, los datos se extraen de una pobla-
ción finita sin reemplazamiento. Por ello, mientras la probabilidad, p, de éxito es constante
en todas las observaciones de un experimento binomial y el resultado de cualquier observa-
ción es independiente de cualquier otro, no se puede decir lo mismo de un experimento
hipergeométrico. En él, el resultado de una observación es afectado por los resultados de las
observaciones previas, por tanto las probabilidades son condicionales.

La Distribución Hipergeométrica se aplica cuando las realizaciones del experimento


aleatorio se realizan sin reposición o generan sucesos que son condicionales, lo cual marca
la principal diferencia con las distribuciones Binomial y de Poisson, ambas para realizaciones
con reposición o independientes entre sí.

El siguiente ejemplo de tipo teórico permite presentar el tema: un conjunto de N


elementos contiene X elementos que poseen una característica determinada A, mientras el
resto de los (N-X) elementos no la poseen. Se selecciona una cantidad n de elementos, efec-
tuando la elección sin reponer y se desea calcular la probabilidad de que, en esos n elemen-
tos, haya x elementos que posean la característica A.

En las condiciones planteadas, debe cumplirse que


N >0
X ≤N
1≤ n ≤ N
0≤ x≤n y x≤ X
lo que equivale a decir que la probabilidad de que se presente el suceso A en el primero de
X
los experimentos es: P( A1 ) = .
N
 X  N − X 
  
 x  n − x 
P (en n realizaciones ; x apariciones ) =
N 
 
n

Ejemplo: La empresa que importa los autos que vende la concesionaria, desea hacer
una encuesta de satisfacción a los compradores de estos autos. De una muestra de 80 autos,
30 son importados. Si se seleccionan 9 clientes. ¿Cuál es la probabilidad de que haya 2 que
compraron autos importados?

N = 80 X = 30 n = 9 x=2

 30  50  30! 50!
  
2!(30 − 2 )! 7!(50 − 7 )!
P(n = 9; x = 2) =    =
2 7
= 0,1874
 80  80!
 
9 9!(80 − 9 )!
:

184
La condición de cierre en la Distribución Hipergeométrica:

 X  N − X 
  
N n  x  n − x 

i =1
p = ∑
i i=0
 N
=1
 
n

Del mismo modo que en los demás casos, en éste la Esperanza matemática se obtie-
ne aplicando su fórmula de cálculo, es decir, haciendo

 X  N − X 
  
n
 x  n − x  X
E( x ) = ∑ x =n = np
x =0  N N
 
n

Partiendo de la aplicación de la fórmula de trabajo para la variancia, en el caso de es-


ta distribución se tiene que

 X  N − X 
  
2  x  n − x  N−n
n
V(x ) = ∑ x − (np) 2 = npq
x =0  N N −1
 
n

4. DISTRIBUCION NORMAL. CARACTERÍSTICAS. DISTRIBUCIÓN NORMAL ESTANDARIZA-


DA. CÁLCULO DE PROBABILIDADES: USO DE TABLAS.

La Distribución Normal fue descubierta simultánea e independientemente por los


matemáticos Gauss y Laplace - por lo cual también lleva sus nombres - al estudiar la distri-
bución de los errores en las mediciones realizadas en cierto tipo de pruebas experimenta-
les.

Ambos llegaron a la conclusión que esos errores, si bien tenían un comportamiento


aleatorio, se manifestaban en general siguiendo un modelo que respondía a una expresión
matemática, que simbolizaremos con f(x), del siguiente tipo:

2
1  xi − µ x 
−  
1  σx 
f (x ) = e 2
(para − ∞ ≤ xi ≤ +∞ )
2π σ x

cuya gráfica tiene una forma “campanular” similar a la siguiente

185
x1 µξ µx x2 xi

Cuyos parámetros son


E(x) = µx
V(x) =σx2

a partir de lo cual se deduce que DS(x)=σx.

Simbólicamente, la expresión de la normal se puede indicar escribiendo en forma


abreviada del siguiente modo:
xi ∼ N(µx;σx2),

lo cual equivale a decir “la variable xi se distribuye según una distribución normal con
parámetros µx y σx2 ”.

Como en toda función de densidad, la probabilidad de que la variable aleatoria xi se


encuentre entre dos valores arbitrarios x1 y x2 está dada por el área A bajo la curva cuyo
valor se encuentra integrando la función f(x) entre ambos valores, es decir que
x2 x2

P( x1 ≤ xi ≤ x2 ) = A = ∫x f ( x) dx = x∫ N (µx ;σ x2 ) dx
1 1
en tanto la probabilidad en un punto cualquiera, por ejemplo P( xi = x2 ) , no tiene sentido.

Si bien previamente se ha indicado que la forma de hallar las probabilidades en la dis-


tribución normal consiste en calcular la integral de la función correspondiente entre dos
puntos cualesquiera de la variable aleatoria bajo estudio, lo que equivale a un área, la solu-
ción práctica para obtener esas probabilidades consiste en utilizar la Tabla de Probabilida-
des, apropiada para calcular cualquier probabilidad en el caso normal, sin que importe cuá-
les son los valores particulares de la variable aleatoria ni los parámetros de la distribución.

186
La Tabla Nº 1, que está al final de este Tema, se utiliza en cualquier circunstancia en
la que la variable aleatoria se distribuya normalmente, pero para su aplicación se requiere
transformar la variable xi bajo estudio en una variable estandarizada zi, utilizando la trans-
x −x
formación zi = i , con lo cual se consigue que la media y la variancia de zi sean, respecti-
Sx
vamente, iguales a cero y a uno.

Efectuada la transformación se utiliza la tabla, reconociéndose dos casos diferentes


de búsqueda:

Caso de búsqueda directa: se dispone de determinados valores de la variable


aleatoria y se obtienen en la tabla las probabilidades que les corresponden.
Caso de búsqueda inversa: se dispone de ciertos valores de probabilidad y se
desea encontrar a qué valores de la variable aleatoria corresponden.

Manejo de la tabla:
Caso directo: Para practicar el manejo de la tabla, se considerará que ya se ha
efectuado la transformación de la variable xi en la variable estandarizada zi. y se
presentarán las siguientes alternativas:

1. Hallar la probabilidad de que la variable zi se encuentra entre los valores cero y


1,38, es decir : P(0 ≤ zi ≤ 1,38).

Se puede verificar en el gráfico de la izquierda que


el área más oscura es la probabilidad requerida, y
que ella se puede obtener, en este caso, directa-
mente de la tabla. Luego:

P(0 ≤ zi ≤ 1,38) = 0,4162

2. Hallar la probabilidad de que la variable zi se encuentre entre los valores -1,53 y ce-
ro, es decir: P(−153
, ≤ zi ≤ 0).

El área correspondiente a la probabilidad pedida


se presenta sobre el semieje negativo de las absci-
sas. Como la curva es simétrica, esa área es equi-
valente a aquella extendida sobre el semieje posi-
tivo, alternativa que fuera planteada en el caso 1)
anterior, es decir que
P(−153, ≤ zi ≤ 0) = P(0 ≤ zi ≤ 153
, ) = 0,4370

3. Hallar la probabilidad de que la variable zi se encuentre entre los valores -2,11 y


2,11, es decir: P(−2,11 ≤ zi ≤ +2,11).

187
El área que corresponde a la probabilidad pedida
es simétrica respecto del valor cero, por lo que se
obtiene sumando dos áreas equivalentes extendi-
das sobre el semieje positivo, es decir que
P(−2,11 ≤ zi ≤ 2,11) =
P( 0 ≤ zi ≤ 2,11) + P(0 ≤ zi ≤ 2,11) = 2 P( 0 ≤ zi ≤ 2,11) =
= 2 (0,4826)=0,9652

4. Hallar la probabilidad de que la variable zi se encuentre entre los valores -1,96 y


1,58, es decir: P(−1,96 ≤ zi ≤ +158
, ).

El área que corresponde a la probabilidad pedida


se puede obtener sumando los sectores de la iz-
quierda y de la derecha, que en este caso no son
iguales entre sí. Como la curva es simétrica, la
P(−1,96 ≤ zi ≤ 158
, )=
P(0 ≤ zi ≤ 1,96) + P(0 ≤ zi ≤ 158
, ) = 0,4750 + 0,4429 =
= 0,9179

5. Hallar la probabilidad de que la variable zi se encuentre entre los valores 1,29 y


2,07, es decir: P(1,29 ≤ zi ≤ 2,07).

El área que corresponde a la probabilidad pedida


se obtiene restando a la superficie bajo la curva
entre los valores cero y 2,07, la superficie entre los
valores cero y 1,29, es decir que
P(1,29 ≤ zi ≤ 2,07) =
P(0 ≤ zi ≤ 2,07) − P(0 ≤ zi ≤ 1,29) = 0,4808 − 0,4015 =
= 0,0793

6. Hallar la probabilidad de que la variable zi se encuentre entre los valores -2,21 y -


0,95, es decir: P(−2,21 ≤ zi ≤ −0,95).

La probabilidad requerida puede obtenerse cal-


culándola como si los valores de la variable fueran
positivos, es decir, del mismo modo que como fue
calculada en el caso 5 (anterior).
P(−2,21 ≤ zi ≤ −0,95) = P(0,95 ≤ zi ≤ 2,21) =
P(0 ≤ zi ≤ 2,21) − P(0 ≤ zi ≤ 0,95) = 0,4864 − 0,3289 =
= 0,1575

188
7. Hallar la probabilidad de que la variable zi sea mayor o igual que el valor 1,96, es
decir: P( zi ≥ 196
, ).

La probabilidad requerida se obtiene tomando


toda el área a la derecha del valor cero, equivalen-
te a 0,50, restándole el área entre 0 y 1,96.
P( zi ≥ 1,96) = 0,50 − P(0 ≤ zi ≤ 1,96) =
= 0,50 − 0,4750 = 0,025

8. Hallar la probabilidad de que la variable zi sea menor o igual que el valor -1,47, es
decir: P( zi ≤ −1,47).

La probabilidad requerida se calcula aplicando el


procedimiento explicado en el caso 7, consideran-
do el valor absoluto de 1,47, es decir que la
P( z ≤ −1,47 ) = P( z ≥ 1,47 ) = 0,50 − P(0 ≤ z ≤ 1,47
i i i
= 0,50 − 0,4292 = 0,0708

9. Hallar la probabilidad de que la variable zi sea mayor o igual que -1,37, es decir:
P( zi ≥ −1,37).
La probabilidad buscada se obtiene luego de con-
siderar que el área total requerida se extiende
entre el valor -1,37 y +∞ , lo cual equivale a tomar
el área entre 0 y +∞ , por un lado, y sumarle el
área entre -1,37 y 0 por el otro. Es decir,
P( z ≥ −1,37 ) = P(−1,37 ≤ z ≤ 0) + 0,50 =
i i
= P(0 ≤ z ≤ 1,37 ) + 0,50 = 0,4147 + 0,50 =
i
= 0,9147

Caso inverso: Se reconocen tres casos fundamentales.

1. Hallar el valor z1 tal que la probabilidad de que la variable zi esté entre 0 y z1 sea igual
a 0,4441.
En el área de las probabilidades de la tabla, busca-
mos el valor 0,4441 y encontramos que ese valor
está presente exactamente en la tabla y que se co-
rresponde con un z1 igual a 1,59. Por consiguiente,
P(0 ≤ zi ≤ z1 = 1,59) = 0,4441 ⇒ z1 = 1,59 .
Si el valor de la probabilidad no estuviera presente
exactamente en la tabla, se puede efectuar una
interpolación aritmética entre aquéllos dos que lo

189
encierran o, en caso de no requerir demasiada pre-
cisión, tomar el valor más cercano que figura en la
tabla.

2. Hallar los valores z1 y z2 tales que se tenga una probabilidad igual a 0,80 de que la va-
riable zi se encuentre entre ambos.

En este caso se buscan dos valores de la variable zi,


z1 y z2, que encierren una probabilidad igual a 0,80,
es decir P(z1 ≤ z ≤ z2 ) = 0,80 . Este caso no tiene
solución única, ya que hay infinitos pares de valo-
res (z1 ;z2) que encierran un área igual a 0,80, y sólo
puede resolverse si se amplía la información dispo-
nible.

3. Hallar el valor de z1 tal que la probabilidad de que la variable zi se encuentre entre -z1
y +z1 sea igual a 0,90.

Para resolver este caso se busca aquel valor absolu-


to z1 de la variable zi que encierre una probabilidad
igual a 0,90, es decir que P(− z1 ≤ zi ≤ + z1) = 0,90 ,el
cual sí tiene solución única que se consigue redu-
ciéndolo a un ejemplo del caso 1 anterior, es decir
que correspondería calcular la P(0 ≤ zi ≤ z1) = 0,45 ,
en la cual z1=1,645.

Además del valor presentado en el ejemplo precedente, se reconocen como muy


importantes dos valores adicionales de probabilidad, 0,95 y 0,99, por su futura aplicación.
Resumiendo: P(− z ≤ z ≤ + z ) = 0,90 ⇒ P(0 ≤ z ≤ z ) = 0,45 ⇒ z = 1,65
1 i 1 i 1 1

P(− z1 ≤ zi ≤ + z1) = 0,95 ⇒ P(0 ≤ zi ≤ z1) = 0,475 ⇒ z1 = 1,96

P(− z1 ≤ zi ≤ + z1) = 0,99 ⇒ P(0 ≤ zi ≤ z1) = 0,495 ⇒ z1 = 2,58

Ejemplo: Supongamos que los precios de los autos, que son una variable aleatoria
tienen distribución normal con esperanza matemática µx = 100 mil $ y variancia σx2
= 900 mil $2.

1. Hallar la probabilidad que los precios de los autos vendidos estén $ 50 mil y $ 150
mil.

190
P(50 ≤ x ≤ 150) = P( z ≤ z ≤ z )
i 1 i 2
Se obtienen los valores de z1 y z2:
50 − 100
z 1= = −1,67 y
30
150 − 100
z 2= = +1,67 .
30
Luego P(−1,67 ≤ zi ≤ +1,67) =
=2(0,4525)=0,905

2. Que los precios sean mayores o iguales a $ 160 mil.


P( x ≥ 160) = P( z ≥ z )
i i 1
El valor de z1 se obtiene mediante la estandari-
zación, haciendo:
160 − 100
z 1= = 2,00
30
Luego: P( z ≥ 2 ,00 ) = 0 ,50 − P( 0 ≤ z ≤ 2 ,00 ) = =
i 1
0,50 - 0,4772 = 0,0228
3. Que los precios estén entre $ 115 mil y $ 170 mil
P(115 ≤ x ≤ 170) = P( z ≤ z ≤ z )
i 1 i 2
Se obtienen los valores de z1 y z2 mediante la
estandarización:
115 − 100 170 − 100
z 1= = 0,50 y z2= = 2,33 .
30 30
Luego P( 0,50 ≤ zi ≤ 2,33) =
= 0,4901 – 0,1915= 0,2986
4. Obtener los precios de los autos (xi) tales que P( x1 ≤ xi ≤ x2 ) = 0 ,95
La probabilidad pedida es equivalente a la pro-
babilidad siguiente:
P(− z1 ≤ zi ≤ + z1 ) = 0 ,95 , y a su vez equivalente
a la P(0 ≤ zi ≤ z1 ) = 0 ,475 .
De acuerdo con la tabla, z1 = ±1,96 . Luego:
x1 = − z1σ x + µ x = (− 1,96 )30 + 100 =
= $ 41,2 mil, y
x2 = z1σ x + µ x = (1,96 )30 + 100 =
= $ 158,8 mil.
Entonces: P(41,2 ≤ xi ≤ 158 ,8 ) = 0 ,95

La condición de cierre se obtiene aplicando la integral:

191
2
1  x i − µ x 
− 
+∞ +∞ 2 σ 
1   dx = 1

−∞
f ( x)dx =
2π σ
∫e
−∞
x

5. DISTRIBUCIÓN T DE STUDENT. CARACTERÍSTICAS. CÁLCULO DE PROBABILIDADES:


USO DE TABLAS.

En las muestras de tamaño mayor a 30, llamadas muestras grandes, las distribucio-
nes de muchos estadísticos son aproximadamente normales, y la aproximación es tanto me-
jor conforme aumenta el tamaño de la muestra.

Para muestras de tamaño menor o igual a 30, llamadas muestras pequeñas, esta
aproximación no es buena y va siendo peor a medida que el tamaño de la muestra disminu-
ye.

La distribución t de student es una distribución con una curtosis (k) menor a tres. El
valor de k dependerá del tamaño de la muestra; si n es muy pequeña el valor de k disminu-
ye. Por lo tanto hay una distribución de t para cada tamaña de muestra. La distribución de t
supone que la distribución de la población es normal.

La variable “t de Student”, denominada así en honor a su descubridor, el matemático


inglés Gosset (quien se autoasignó el seudónimo de “Student”), la cual tiene la siguiente
forma:
x − µx
t Student =
∑ xi − x
2
( )
n (n − 1)

Sabiendo que µ x = µ x y modificando el denominador, se obtienen las siguientes dos


alternativas de solución:
x − µx x − µx
t St = =
Sx Sc
n −1 n

en las que puede observarse que la variable t de Student no es más que una forma diferente
de variable estandarizada.

En la variable t de Student aparece el concepto de grados de libertad, que se simbo-


liza con v y que resulta ser el número de variables linealmente independientes que se utili-
zan en el cálculo de las estadísticas.

Gosset demostró que los grados de libertad son iguales al número de elementos de
la muestra menos 1.

192
Es decir que: v=n–1

La distribución t de Student tiene las siguientes características:


Es simétrica, con media de 0, y variancia mayor que 1.

Es más achatada que la normal y adopta diferentes formas, según el número de


grados de libertad.

La variable t se extiende desde - ∞ a + ∞

A medida que aumenta los grados de libertad la distribución “t” se aproxima en


su forma a una distribución normal.

El parámetro de la distribución son los grados de libertad, originando una distri-


bución diferente para cada tamaño de muestra.

Con un tamaño de muestra igual a 16, hallar el valor de t1 si:

el área sombreada a la derecha es 0,05.


Para n = 16  = n – 1 = 16 – 1 = 15

t0,95 = t1 = 1,75

el área total sombreada es 0,05

193
t0,975 = t1 = 2,13
t0,025 = - t1 = - 2,13

el área no sombreada es 0,99

t0,995 = t1 = 2,95
t0,005 = - t1 = - 2,95

6. DISTRIBUCIÓN CHI CUADRADO. CÁLCULO DE PROBABILIDADES: USO DE TABLAS.

La estadística Sx2, se utiliza para muestras pequeñas, que, como todas las demás, tie-
ne una distribución cuya determinación se realiza recordando que

S x2 =
1
n
∑ ( )
xi − x ⇒ n S x2 = ∑ xi − x
2 2
( )
Ahora dividimos ambos miembros de la última igualdad por un valor constante, que en
este caso será σx2 y obtenemos una variable que llamaremos χ vgl
2
(Chi cuadrado) con v gra-
dos de libertad.
∑ (x )2
n S x2 −x
= i
= χ v2 gl
σ 2
x σ 2
x

Observando el gráfico de esta distribución se descubrirán algunas diferencias con las


distribuciones utilizadas anteriormente, correspondientes a la normal y a la t de Student.

La distribución Chi cuadrado tiene las siguientes características

194
Por definición, una variable χ vgl
2
adopta valores positivos

La distribución es asimétrica positiva.

A medida que aumenta el tamaño de la muestra la curva es menos asimétrica,


aproximándose a una curva normal.

Para cada tamaño muestral, se tendrá una distribución χ vgl


2
diferente.

El parámetro que caracteriza a una distribución χ vgl


2
son sus grados de libertad,
originado una distribución para cada grado de libertad.

Con un tamaño de muestra igual a 14, hallar el valor de χ vgl


2
si:

el área sombreada a la derecha es 0,05.


Para n = 14  = n – 1 = 14 – 1 = 13

χ 22 = χ 02,95 = 22,4

el área total sombreada es 0,05

195
χ12 = χ 02, 025 = 5,01

χ 22 = χ 02,975 = 24,7

. el área no sombreada es 0,99

χ12 = χ 02,005 = 3,57

χ 22 = χ 02,995 = 29,8

Distribuciones
de Probabilidad

Funciones de Funciones de
Probabilidad Densidad

Distribución Distribución Distribución Distribución Distribución t Distribución


Binomial de Poisson Hipergeomé- Normal de Student Chi
trica Cuadrado

PREGUNTAS TEORICAS:
1) En una función de densidad ¿a qué es igual la P(xi=x1)?
a) al bastón en el punto xi=x1.
b) al área entre (- ∞ y x1)
c) la probabilidad pedida no tiene sentido
d)
2) En una experiencia aleatoria que se realiza con extracciones sin reposición ¿puede
aplicarse la Distribución Binomial?
a) a veces b) siempre c)nunca

196
BINOMIAL POISSON HIPERGEOMÉTRICA
Finita sin
Población Infinita o finita con reemplazamiento Infinita
reemplazamiento
Resultados AyĀ AyĀ AyĀ
Eventos Independientes Independientes Dependientes
P(A) = p P(Ā) = q
P(A) = p P(Ā) = q X
Probabilidad P(A ó Ā) =
p 0 P( A1 ) =
(en un intento o repetición) = P(A) + P(Ā) = N
q 1
=p+q=1
Realización del n veces N>0
n veces
Experimento n ∞ 1≤n ≤N
X≤N
x veces
Nº de éxitos intervalo de tiempo 0≤x ≤n
0≤x ≤n
x ≤X
λ
Parámetros nyp N,Xyn
λ = np
 X  N − X 
  
n
P(n; x) =   p x q n − x λx x n − x 
Fórmula P(n; x) = e− λ P ( n; x) =  
N
 x x!  
n
X
Esperanza E(x) = n.p E(x) = λ E (x ) = n = np
N
N −n
Varianza V(X) = n.p.q V(x) = λ V ( x) = npq
N −1

197
TABLA Nº 1
Areas bajo la curva Normal Estandarizada

z 0 1 2 3 4 5 6 7 8 9
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0754
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2258 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2518 0,2549
0,7 0,2580 0,2612 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2996 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3428 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3952 0,3980 0,3997 0,4015
1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0.4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0.4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4895 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993
3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995
3,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4995
3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998
3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998
3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

198
TABLA Nº 2
Valores de los percentilos para la Distribución de la “t de Stu-
dent” con “v” grados de libertad

NC → 0,99 0,98 0,95 0,90 0,80 0,60 0,50 0,40 0,20 0,10
v t0,995 t0,99 t0,975 t0,95 t0,90 t0,80 t0,75 t0,70 t0,60 t0,55

1 63,66 31,82 12,71 6,31 3,08 1,376 1,000 0,727 0,325 0,158
2 9,92 6,96 4,30 2,92 1,89 1,061 0,816 0,617 0,289 0,142
3 5,84 4,54 3,18 2,35 1,64 0,978 0,765 0,584 0,277 0,137
4 4,60 3,75 2,78 2,13 1,53 0,941 0,741 0,569 0,271 0,134
5 4,03 3,36 2,57 2,02 1,48 0,920 0,727 0,559 0,267 0,132
6 3,71 3,14 2,45 1,94 1,44 0,906 0,718 0,553 0,265 0,131
7 3,50 3,00 2,36 1,90 1,42 0,896 0,711 0,549 0,263 0,130
8 3,36 2,90 2,31 1,86 1,40 0,889 0,706 0,546 0,262 0,130
9 3,25 2,82 2,26 1,83 1,38 0,883 0,703 0,543 0,261 0,129
10 3,27 2,76 2,23 1,81 1,37 0,879 0,700 0,542 0,260 0,129
11 3,11 2,72 2,20 1,80 1,36 0,876 0,697 0,540 0,260 0,129
12 3,06 2,68 2,18 1,78 1,36 0,873 0,695 0,539 0,259 0,128
13 3,01 2,65 2,16 1,77 1,35 0,870 0,694 0,538 0,259 0,128
14 2,98 2,62 2,14 1,76 1,34 0,868 0,692 0,537 0,258 0,128
15 2,95 2,60 2,13 1,75 1,34 0,866 0,691 0,536 0,258 0,128
16 2,92 2,58 2,12 1,75 1,34 0,865 0,690 0,535 0,258 0,128
17 2,90 2,57 2,11 1,74 1,33 0,863 0,689 0,534 0,257 0,128
18 2,88 2,55 2,10 1,73 1,33 0,862 0,688 0,534 0,257 0,127
19 2,86 2,54 2,09 1,73 1,33 0,861 0,688 0,533 0,257 0,127
20 2,84 2,53 2,09 1,72 1,32 0,860 0,687 0,533 0,257 0,127
21 2,83 2,52 2,08 1,72 1,32 0,859 0,686 0,532 0,257 0,127
22 2,82 2,51 2,07 1,72 1,32 0,858 0,686 0,532 0,256 0,127
23 2,81 2,50 2,07 1,71 1,32 0,858 0,685 0,532 0,256 0,127
24 2,80 2,49 2,06 1,71 1,32 0,857 0,685 0,531 0,256 0,127
25 2,79 2,48 2,06 1,71 1,32 0,856 0,684 0,531 0,256 0,127
26 2,78 2,48 2,06 1,71 1,32 0,856 0,684 0,531 0,256 0,127
27 2,77 2,47 2,05 1,70 1,31 0,855 0,684 0,531 0,256 0,127
28 2,76 2,47 2,05 1,70 1,31 0,855 0,683 0,530 0,256 0,127
29 2,76 2,46 2,04 1,70 1,31 0,854 0,683 0,530 0,256 0,127
30 2,75 2,46 2,04 1,70 1,31 0,854 0,683 0,530 0,256 0,127
40 2,70 2,42 2,02 1,68 1,31 0,851 0,681 0,529 0,255 0,126
60 2,66 2,39 2,00 1,67 1,30 0,848 0,679 0,527 0,254 0,126
120 2,62 2,36 1,98 1,66 1,29 0,845 0,677 0,526 0,254 0,126
∞ 2,58 2,33 1,96 1,65 1,28 0,842 0,674 0,524 0,253 0,126

199
TABLA Nº 3

Valores de los percentilos ( i) para la distribución Chi-cuadrado, con “v” grados de
libertad
NC → 0,99 0,98 0,95 0,90 0,80 0,50 0,50 0,80 0,90 0,95 0,98 0,99
            
v             
0,995 0,99 0,975 0,95 0,90 0,75 0,50 0,25 0,10 0,05 0,025 0,01 0,005

1 7,88 6,63 5,02 3,84 2,71 1,32 0,455 0,102 0,016 0,004 0,001 0,000 0,000
2 10,6 9,21 7,38 5,99 4,61 2,77 1,39 0,575 0,211 0,103 0,051 0,020 0,010
3 12,8 11,3 9,35 7,81 6,25 4,11 2,37 1,21 0,584 0,352 0,216 0,115 0,072
4 14,9 13,3 11,1 9,49 7,78 5,39 3,36 1,92 1,06 0,711 0,484 0,297 0,207
5 16,7 15,1 12,8 11,1 9,24 6,63 4,35 2,67 1,61 1,15 0,831 0,554 0,412
6 18,5 16,8 14,4 12,6 10,6 7,84 5,35 3,45 2,20 1,74 1,24 0,872 0,676
7 20,3 18,5 16,0 14,1 12,0 9,04 6,35 4,25 2,83 2,17 1,69 1,24 0,989
8 22,0 20,1 17,5 15,5 13,4 10,2 7,34 5,07 3,49 2,73 2,18 1,65 1,34
9 23,6 21,7 19,0 16,9 14,7 11,4 8,34 5,90 4,17 3,33 2,70 2,09 1,73
10 25,2 23,2 20,5 18,3 16,0 12,5 9,34 6,74 4,87 3,94 3,25 2,56 2,16
11 26,8 24,7 21,9 19,7 17,3 13,7 10,3 7,58 5,58 4,57 3,82 3,05 2,60
12 28,3 26,2 23,3 21,0 18,5 14,8 11,3 8,44 6,30 5,23 4,40 3,57 3,07
13 29,8 27,7 24,7 22,4 19,8 16,0 12,3 9,30 7,04 5,89 5,01 4,11 3,57
14 31,3 29,1 26,1 23,7 21,1 17,1 13,3 10,2 7,79 6,57 5,63 4,66 4,07
15 32,8 30,6 27,5 25,0 22,3 18,2 14,3 11,0 8,55 7,26 6,26 5,23 4,60
16 34,3 32,0 28,8 26,3 23,5 19,4 15,3 11,9 9,31 7,96 6,91 5,81 5,14
17 35,7 33,4 30,2 27,6 24,8 20,5 16,3 12,8 10,1 8,67 7,56 6,41 5,70
18 37,2 34,8 31,5 28,9 26,0 21,6 17,3 13,7 10,9 9,39 8,23 7,01 6,26
19 38,6 36,2 32,9 30,1 27,2 22,7 18,3 14,6 11,7 10,1 8,91 7,63 6,84
20 40,0 37,6 34,2 31,4 28,4 23,8 19,3 15,5 12,4 10,9 9,59 8,26 7,43
21 41,4 38,9 35,5 32,7 29,6 24,9 20,3 16,3 13,2 11,6 10,3 8,90 8,03
22 42,8 40,3 36,8 33,9 30,8 26,0 21,3 17,2 14,0 12,3 11,0 9,54 8,64
23 44,2 41,6 38,1 35,2 32,0 27,1 22,3 18,1 14,8 13,1 11,7 10,2 9,26
24 45,6 43,0 39,4 36,4 33,2 28,2 23,3 19,0 15,7 13,8 12,4 10,9 9,89
25 46,9 44,3 40,6 37,7 34,4 29,3 24,3 19,9 16,5 14,6 13,1 11,5 10,5
26 48,3 45,6 41,9 38,9 35,6 30,4 25,3 20,8 17,3 15,4 13,8 12,2 11,2
27 49,6 47,0 43,2 40,1 36,7 31,5 26,3 21,7 18,1 16,2 14,6 12,9 11,8
28 51,0 48,3 44,5 41,3 37,9 32,6 27,3 22,7 18,9 16,9 15,3 13,6 12,5
29 52,3 49,6 45,7 42,6 39,1 33,7 28,3 23,6 19,8 17,7 16,0 14,3 13,1
30 53,7 50,9 47,0 43,8 40,3 34,8 29,3 24,5 20,6 18,5 16,8 15,0 13,8
40 66,8 63,7 59,3 55,8 51,8 45,6 39,3 33,7 29,1 26,5 24,4 22,2 20,7
50 79,5 76,2 71,4 67,5 63,2 56,3 49,3 42,8 37,7 34,8 32,4 29,7 28,0
60 92,0 88,4 83,3 79,1 74,4 67,0 59,3 52,3 46,5 43,2 40,5 37,5 35,5
70 104,2 100,4 95,0 90,5 85,5 77,6 69,3 61,7 55,3 51,7 48,8 45,4 43,3
80 116,3 112,3 106,6 101,9 96,6 88,1 79,3 71,1 64,3 60,4 57,2 53,5 51,2
90 128,3 124,1 118,1 113,1 107,6 98,6 89,3 80,6 73,3 69,1 65,6 61,8 59,2
100 140,2 135,8 129,6 124,3 118,5 109,1 99,3 90,1 84,2 77,9 74,2 70,1 67,3

200

Вам также может понравиться