Вы находитесь на странице: 1из 11

Mat 310. Econometra Aplicada. Notas 1.

M.A Yessenia Tllez


Agosto 13-Agosto 15, 2014

Introduccin
1
:
Qu es la econometra?
Metodologa de la econometra
Naturaleza del anlisis de regresin
Estadstica y Probabilidad a revisin
1. Espacio Muestral. Puntos Muestrales y Eventos
El conjunto de todos los resultados posibles de un experimento aleatorio
2
, o del azar, se
denomina la poblacin o espacio muestral y cada miembro de este espacio muestral se denomina
un punto muestral. Por tanto, en el experimento de lanzar dos monedas, el espacio muestral
consta de estos cuatro resultados: CC, SC, CS y SS, donde CC significa una cara en el primer
lanzamiento y nuevamente una cara en el segundo lanzamiento, CS significa una cara en el
primer lanzamiento y un sello en el segundo lanzamiento, y as sucesivamente. Cada uno de los
eventos anteriores constituye un punto muestral.
Un evento es un subconjunto del espacio muestral. As, si A denota la ocurrencia de una cara y
de un sello, entonces, de los posibles resultados anteriores, solamente dos pertenecen a A, a saber
CS y SC. En este caso, A constituye un evento. En forma similar, la ocurrencia de dos caras en el
lanzamiento de dos monedas es un evento. Se dice que los eventos son mutuamente excluyentes
si la ocurrencia de uno impide la ocurrencia de otro. Si en el ejemplo, anterior ocurre CC, la

1
Capitulo introductorio y capitulo 1. Gujarati, Damodar (2004). Econometra. Cuarta edicin. Mc Graw Hill
2
Cuando en similares condiciones experimentales se obtienen distintos resultados se dice que el experimento es
aleatorio. Los juegos de azar son casos de experimentos aleatorios.
Ejemplos:
1. Lanzamiento de una moneda.
2. Lanzamiento de un dado.
3. Extraccin de una carta en una baraja.

ocurrencia del evento CS al mismo tiempo no es posible. Se dice que los eventos son exhaustivos
(colectivamente) si todos los resultados posibles de un experimento se agotan.
2. Probabilidad
Sea A un evento en un espacio muestral. Sea P(A) la probabilidad del evento A, es decir, la
proporcin de veces que el evento A ocurrir en ensayos repetidos de un experimento. En forma
alterna, en un total de n posibles resultados igualmente probables de un experimento, si m de
ellos son favorables a la ocurrencia del evento A, se define la razn m/n como la frecuencia
relativa de A. Para valores grandes de n, esta frecuencia relativa constituir una muy buena
aproximacin de la probabilidad de A.
Propiedades de la probabilidad:
P(A) es una funcin de valor real y tiene estas propiedades:
1. () para todo A
2. Si A, B, C,. Constituye un conjunto de eventos exhaustivos, entonces P(A+B+C)=1,
donde A+B+C significa A o B o C y as sucesivamente
3. Si A, B, C son eventos mutuamente excluyentes, entonces
( ) () () ()

3. Variables aleatorias
Una variable aleatoria cuyo valor est determinado por el resultado de un experimento de azar se
denomina variable aleatoria. Las variables aleatorias se denotan usualmente por las letras
maysculas X,Y y Z, y as sucesivamente, y los valores que ellas toman estn denotadas por
letras minsculas, x,y,z etc.
Una variable aleatoria se describe al examinar el proceso que genera sus valores. Este proceso es
llamado distribucin de probabilidad.
1.1 Tipos de variables aleatorias:
Discretas: La variable aleatoria X se dice que es discreta si los nmeros asignados a los sucesos
elementales de E son puntos aislados. Sus posibles valores constituyen un conjunto finito o
infinito numerable. Por ejemplo, supongamos el experimento consistente en lanzar tres veces una
moneda no trucada; si consideramos la variable aleatoria X=nmero de caras obtenidas en los
tres lanzamientos, los valores que puede tomar esta variable aleatoria son finitos (0,
1,2,3).Continuas: solo puede tomar un nmero especfico de nmeros reales.
Continuas: La variable aleatoria X ser continua si los valores asignados pueden ser
cualesquiera, dentro de ciertos intervalos, es decir, puede tomar cualquier valor de R. Por
ejemplo, si consideramos el experimento aleatoria consistente en medir el nivel de agua en un
embalse y tomamos la variable aleatoria X=nivel de agua, esta puede tomar valores entre 0 y
ms infinito.
4. Distribucin de probabilidad:
2.1 Funcin de Densidad de Probabilidad (FDP)
Sea X una variable discreta que toma valores diferentes x
1
, x
2
, x
n
. Entonces la funcin
() (

) para i = 1,2,n
Se denomina la funcin de densidad de probabilidad discreta (FDP) de X, donde (

)
significa la probabilidad de que la variable discreta X tome el valor de x
i

Ejemplo: Calcular la distribucin de probabilidad de la variable aleatoria puntuaciones
obtenidas al lanzar un dado.
Valor x 1 2 3 4 5 6
Prob p 1/6 1/6 1/6 1/6 1/6 1/6
Representacin: La representacin de una distribucin discreta de probabilidad es un diagrama
de barras.

2.2 Funcin de densidad de probabilidad de una variable aleatoria continua
Sea X una variable continua. Entonces, se dice que () es la FDP de X si satisfacen las
siguientes condiciones:
()
()


()

( )
Donde f(x)dx conocido como el elemento probabilstico (la probabilidad asociada con un
pequeo intervalo de una variable continua) y donde
( )significa la probabilidad de que X se encuentra en el intervalo a a b.
Considrese la siguiente funcin de densidad:
()

,
Verificar que () para toda x en el intervalo de 0 a 3
Caractersticas de las distribuciones de probabilidad
Una distribucin de probabilidad a menudo puede resumirse en trminos de algunas de sus
caractersticas, conocidas como los momentos de la distribucin. Los momentos ms
ampliamente utilizados son media o valor esperado y la varianza
5. Valor esperado
El valor esperado de una variable discreta X, denotado por E(X), de define de la siguiente
manera:
() ()


Donde

significa la suma sobre todos los valores de X y donde () es la FDP (discreta)


de X

Ingresar ejemplo
5.1 Propiedades del valor esperado
5.1.1 El valor esperando de una constante es la constante misma. As, si b es una constante,
E(b)= b
5.1.2 Si a y b son constantes,
E(aX+b)= aE(X) + b
5.1.3 Si X y Y son variables aleatorias independientes, entonces
E(XY)= E(X) E(Y)
Es decir, la esperanza del producto XY es el producto de las esperanzas individuales de X y Y
3.1.4 Si X es una variable aleatoria con FDP f(x) y si g(X) es cualquier funcin de X, entonces
() ()()


() ()()









6. Varianza

Sea X una variable aleatoria y sea E(x)=. La distribucin o dispersin de los valor de X
alrededor del valor esperado puede ser medida por la varianza, la cual se define como

()

( )



La raz cuadrada positiva de

est definida como la desviacin estndar de X. La


varianza o la desviacin estndar da una indicacin de que tan cercanos o dispersos estn
los valores individuales de X con respecto al valor de su media. La varianza definida
anteriormente se calcula de la siguiente forma:
() ( )

()

() ( )

()()



Por conveniencia de clculo, la frmula de la varianza dada anteriormente puede ser
expresada tambin como:

()

( )

) ()



Propiedades de la Varianza
1. ( )

) ()


2. La varianza de una constante es cero
3. Si a y b son constantes, entonces
( )

()
4. Si X y Y son variables aleatorias independientes, entonces
( ) () ()
( ) () ()
5. Si X y Y son variables independientes y a y b son constantes, entonces

( )

()

()




Ejemplo variable discreta:

Se lanza un dado equilibrado produciendo el siguiente espacio muestral:

S={1,2,3,4,5,6}

Sea X el doble del nmero que aparece. Encuentra la distribucin f, la media, la varianza
y la desviacin estndar de X.










6. Covarianza
Sean X y Y dos variables con medias

y

, respectivamente. Entonces, la covarianza entre


las dos variables se define como
( ) [(

)(

)] ()


La varianza de una variable es la covarianza de dicha variable con ella misma.
La covarianza se calcula de la siguiente manera:
Si X y Y son variables discretas:
( ) (

)(

)( )


( )


Si X y Y son variables continuas:
( ) (

)(

)( )

( )

( )


6.1 Propiedades de la Covarianza
6.1.1 Si X y Y son independientes, su covarianza es cero, puesto que
( ) ()


= 0
Dado que () ()()

cuando X y Y son variables independientes


6.1.2 ( ) ( ), donde a,b,c y d son constantes.
7. Coeficiente de correlacin
El coeficiente de correlacin (poblacional) (rho) est definido como

( )
()()

( )


As, definido, (rho) es una media de la asociacin lineal entre dos variables y se encuentra
entre -1 y +1, donde -1 indica una perfecta asociacin negativa y +1 indica una asociacin
perfecta positiva.
De la formula anterior puede verse que:

( )


( )



7. El teorema del lmite central
Qu le sucede a la distribucin muestral de la media conforme se hace ms grande el tamao de
la muestra? De manera intuitiva, esperaramos que un tamao de muestra ms grande condujera
a un estimador de la media que est en promedio ms cerca de la media poblacional, el estimado
de la media muestral seria idnticamente igual a la media poblacional. De hecho, si la muestra se
vuelve grande en forma arbitraria, o igual a la poblacin, el estimado de la media muestral seria
idnticamente igual a la media poblacional.
Esta intuicin, que se cumple para las distribuciones de probabilidad con medias finitas y no se
limita a la normal, se resume de manera formal como el teorema del lmite central:
Teorema del lmite central: Si la variable aleatoria X tiene una media y una varianza
2
,
entonces la distribucin muestral de

se vuelve aproximadamente normal con media y una


varianza
2
/ N conforme N se incrementa.
8. Propiedades deseables de los estimadores
Las propiedades estadsticas deseables se encuentran en dos categoras: propiedades de la
muestra pequea o muestra finita y propiedades de muestra grande o asinttica. En estos dos
conjuntos de propiedades est implcita la nocin de que un estimador tiene una distribucin
muestral o de probabilidad
8.1 Propiedades de muestra pequea
Insesgamiento:
Se dice que un estimador

es un estimador insesgado de si el valor esperado de

es igual al
verdadero ; es decir,
(

)
Si esta igualdad de se mantiene se dice que el estimador es sesgado y el sesgo se calcula como
()

)
Si (

) es un estimador insesgado, entonces el sesgo es cero.



Mnima varianza
Se dice que

es un estimador de mnima varianza de si la varianza de

es menor o igual que


la varianza de

, que es cualquier otro estimador de .



Mejor estimador insesgado o eficiente
Si

son dos estimadores insesgados de y la varianza de

es menor o igual que la


varianza de

, entonces

es un estimador insesgado de mnima varianza, o mejor insesgado, o


eficiente.
Linealidad

Se dice que un estimador

es un estimador lineal de si es una funcin lineal de las


observaciones muestrales.
Mejor estimador lineal e insesgado (MELI). Si

es lineal, es insesgado y tiene mnima varianza


en la clase de todos los estimadores lineales o insesgados de , entonces este se denomina el
mejor estimador lineal e insesgado, o MELI.
8.2 Propiedades de muestra grande
Con frecuencia sucede que un estimador no satisface una o ms de las propiedades estadsticas
deseables en muestras pequeas. Pero a media, que el tamao de la muestra aumenta
indefinidamente, el estimador posee diversas propiedades estadsticas deseables. Estas
propiedades se conocen como propiedades de muestra grande, o propiedades asintticas.
Insesgamiento asinttico. Se dice que un estimador

es un estimador asintticamente
insesgado de si

)
Consistencia
Se dice que

es un estimador consistente si se aproxima al verdadero valor de a medida que


el tamao de la muestra se hace ms grande.
Se dice que un estimador de

es un estimador consistente de si la probabilidad de que el valor


absoluto de la diferencia entre

y sea menor que (una pequea cantidad positiva arbitraria)


y se aproxima a la unidad.

Вам также может понравиться