Академический Документы
Профессиональный Документы
Культура Документы
T E S I S
PARA OBTENER EL GRADO DE:
MAESTRO EN CIENCIAS ECONOMICAS
(ECONOMA FINANCIERA)
P R E S E N T A:
MEXICO, D.F.
ENERO DE 2011
i
ii
iii
AGRADECIMIENTOS
Por todo el amor que has creado en m.
Te dedico la perseverancia y esfuerzo
plasmados en estas hojas.
A mi esposo
Por esperarme cuando me he ido, por
buscarme cuando no me encuentran
y por seguir al tanto de mis proyectos.
A mis padres
Por pulir mis ideas en lugar de desecharlas,
por ser ms que una gua, por el tiempo
otorgado, y por sus reflexiones y consejos que
hicieron de esta investigacin un trabajo
sobresaliente.
A mi director de tesis,
Dr. Francisco Venegas Martnez.
Por la dedicacin en la revisin de
esta investigacin y por creer en m.
A la ESE
Que me apoyo con la beca para realizar
mi maestra.
A CONACyT
Por haberme formado profesionalmente y por
recibirme con los brazos abiertos.
Al IPN
iv
ndice
Pgina
vii
ix
x
xi
xii
xiii
xiv
1
2
3
3
7
8
11
12
13
17
18
19
21
22
24
26
26
27
27
28
29
33
34
36
37
47
48
48
50
51
52
52
53
54
55
56
58
61
62
64
64
67
67
71
73
73
74
77
78
Conclusiones
Bibliografa
Anexo 1: Muestra del IPC.
80
82
85
vi
pgina
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
4.1
19
20
22
23
24
25
26
37
43
60
Grfico 1.1
Grfico 1.2
El ciclo burstil
Elementos de los pronsticos en negocios y
economa
Tendencias de las series de tiempo
Proceso de construccin de un modelo ARIMA (BJ)
Datos al cierre del IPC
Correlograma de la serie IPC
Errores de la etapa de entrenamiento con 10
iteraciones
Errores de la etapa de entrenamiento con 50
iteraciones
Errores de la etapa de entrenamiento con 100
iteraciones
Comparacin entre el pronstico con red neuronal y
el IPC
Contraste Jarque Bera
Correlograma de los residuales al cuadrado
Pronstico de la varianza
Comparacin entre el pronstico del modelo GARCH
y el IPC
7
11
Niveles de bursatilidad
Principales investigaciones sobre predictibilidad
Caractersticas de las RNA ms conocidas
Clasificacin de los modelos paramtricos
6
13
30
48
Grfico
Grfico
Grfico
Grfico
Grfico
3.1
3.2
4.1
4.2
4.3
Grfico 4.4
Grfico 4.5
Grfico 4.6
Grfico
Grfico
Grfico
Grfico
Tabla
Tabla
Tabla
Tabla
4.7
4.8
4.9
4.10
1.1
1.2
2.1
3.1
49
57
62
63
69
69
70
72
73
75
75
76
vii
Tabla
Tabla
Tabla
Tabla
Tabla
3.2
3.3
4.1
4.2
4.3
Tabla 4.4
Tabla 4.5
Tabla 4.6
50
59
63
65
67
71
74
74
viii
Lista de abreviaturas
ARCH:
ARIMA:
BMV:
CNBV:
CNSF:
FAC:
Funcin de autocorrelacin
FACP:
GARCH:
IA:
Inteligencia artificial
IPC:
MCO:
MLP:
Perceptron multicapa
MSE:
RNA:
ix
Glosario de trminos
Entrenamiento off
line:
Entrenamiento on
line:
Regla delta
generalizada:
Retropropagacin:
(Backpropagation)
Campo estadstico
Residuo:
Varianza:
ESTADSTICA
RNA
Estimacin de parmetros
Pesos sinpticos
Modelo
Arquitectura
Muestra
Conjunto de entrenamiento
Muestra de validacin
Conjunto de prueba
Observacin
Proyeccin - regresin
Regresin
Residuos
Errores
Variables independientes
Entradas
Variable dependiente
Salidas
xi
Resumen
xii
Abstract
xiii
Introduccin
En trminos estadsticos, las RNA son estimadores no paramtricos. Al existir una estrecha relacin entre
ambos campos, podemos decir, que mientras la estadstica se dedica al anlisis de datos, en las RNA la
inferencia estadstica significa aprender a generalizar a partir de los datos.
xiv
Dentro del contexto de la regresin, la linealidad hace referencia a la manera en que los parmetros y la
perturbacin entran a formar parte de la ecuacin y no necesariamente a la relacin entre variables. Por
ejemplo, las ecuaciones y = + x + , y = + cos(x) + , y = + / x + , y = + ln x + son todas ellas
lineales en alguna funcin de x de la forma que se ha definido. En estos casos solo x ha sido transformada
aunque la y tambin puede transformase, como ln y = + ln x + .
3
Por sus siglas en ingls: Generalized autoregressive conditional heteroscedasticity. Un modelo GARCH, est
basado en la metodologa de un modelo ARIMA pero heteroscedstico.
xv
xvi
Las 2 clases bsicas de acciones son: las comunes (representan la inmensa mayora del capital y sus
poseedores solo obtienen beneficios cuando la empresa reporta utilidades) y las preferentes (garantizan un
rendimiento anual y estn destinadas por lo general a los socios fundadores o mayoritarios).
5
La ponderacin se har considerando el valor de capitalizacin ajustado por acciones flotantes (acciones que
se encuentran disponibles para el pblico inversionista).La frmula para determinar la ponderacin de cada
serie accionaria dentro del IPC:
wi =
VMAFi
VMAF
Donde:
w i = Peso relativo de cada serie accionaria dentro de la muestra del IPC.
VMAFi = Valor de mercado ajustado por acciones flotantes de la serie accionaria i.
xvii
1
xviii
2
1.2.1 Frmula
Esta frmula mide el cambio diario del valor de capitalizacin de una
muestra de valores (Centro Educativo del Mercado de Valores, 1997).
Pit * Q it
I t = I t 1
i , t 1 * Q it 1 * Fit
(1.1)
Donde:
it = ndice en tiempo t
Pit = Precio de la emisora i el da t
Qit = Acciones de la emisora i el da t
10
xix
3
Con este indicador se asegura que las empresas sean las de mayor
negociacin en la BMV. Como primera seleccin se considera a las 35
series 11 accionaras de mayor bursatilidad, para lo cual se utiliza el
ndice de bursatilidad que genera y publica en forma mensual la BMV.
Las series seleccionadas, se debern haberse mantenido dentro de este
grupo los ltimos 6 meses.
Si existieran 2 o ms series accionarias que presenten el mismo nivel
de bursatilidad en el ltimo lugar disponible de la muestra, la
seleccin se har, tomando en cuenta la frecuencia en que incurran en
este nivel las series y se considerar su valor de capitalizacin.
En caso de no contar con las 35 series accionaras en la primera
seleccin, se lleva a cabo una segunda seleccin considerando la
frecuencia en que las series incurren en los mejores lugares del nivel
de bursatilidad y su valor de capitalizacin. En caso de que 2 o ms
series accionaras cumplan con las mismas caractersticas y los lugares
no sea suficientes, se considerara la evolucin burstil de las series y
la opinin del comit de metodologas de la BMV 12(bmv.com.mx).
A continuacin se presenta como es calculado este ndice y la
interpretacin de sus resultados. Las variables que se utilizan para
describir los niveles de negociacin son: el importe, el nmero de
operaciones y la media del importe (Venegas, 2008).
11
Las series accionarias pueden indicar diversas situaciones o un rasgo particular. Por ejemplo, la serie A: son
acciones comunes que pueden ser suscritas exclusivamente por mexicanos; La serie B: son acciones ordinarias
de libre suscripcin (pueden ser adquiridas por mexicanos o extranjeros, por personas fsicas o personas
morales) ; La serie L:son acciones de libre suscripcin con restriccin de derechos corporativos; entre otras. En
muchos casos las empresas deciden hacer combinaciones de series que lgicamente mezclan condiciones o
prerrogativas. Por ejemplo, La serie A1: acciones ordinarias que representan la parte fija del capital social y que
son suscritas nada mas por mexicanos; La serie:A2: son acciones ordinarias suscritas solo por mexicanos que
representan la parte variable del capital social; entre otras. Por lo general, las series se estipulan por decisin o
voluntad de los socios o por disposicin oficial.
12
Funciones: Analizar y determinar las metodologas, reglas de mantenimiento y cambios en las muestras
aplicables a la familia de ndices BMV, as como aprobar el establecimiento de nuevos ndices de mercado y las
mecnicas operativas que les resulten aplicables, Conocer y resolver sobre todas aquellas consultas y opiniones
de carcter tcnico y operativo relacionadas con las metodologas de los ndices de mercado, Informar
semestralmente al Consejo de Administracin sobre el ejercicio de sus funciones y Analizar y opinar sobre los
modelos de comercializacin y licenciamiento
4
xx
Oj
I jt = Pij Q ij
i =1
(1.2)
Donde 13:
I t = I jt
j=1
(1.3)
Para el clculo:
A partir de las variables operativas de cada una de las series
accionaras (importe total acumulado ( I jt ), nmero de operaciones
acumuladas ( Q ij ) y la media del importe ( I jt ), se evalan los valores
mximos y mnimos de cada una de las variables y se definen los
porcentajes de participacin para cada variable.
13
Datos acumulados durante los seis meses anteriores a la fecha del clculo del ndice.
Se excluyen operaciones de volumen inferior a 100 ttulos (un lote), ofertas pblicas, operaciones de registro
y aquellas operaciones que representan ms del 1%de las acciones en circulacin de la serie en cuestin.
14
xxi
5
Bursatilidad
Bursatilidad
Bursatilidad
Bursatilidad
mnima
baja
media
alta
0.00
4.59
6.34
8.00
4.58
6.33
7.99
10.00
F u e n t e : C en t r o E d u c a t iv o d el M er c a d o d e Va l o r e s (1 9 9 7 ) .
xxii
6
Las instituciones
financieras comienzan
a comprar acciones.
Fase alcista
Los inversores ms
expertos empiezan a
comprar, aprovechando
el bajo precio.
Fase bajista
F u e n t e : E l a bo r a c i n p r o pi a c o n ba s e e n M a r t n ez y S n c he z (2 0 0 2 )
xxiii7
sobre el
(1.5)
Donde:
= Precio inicial o actual del activo
= Rentabilidad esperada
= Dividendo en el tiempo t
xxiv
8
(1.6)
Donde:
P t = Precio real de los activos
= Dividendos esperados de los activos, segn los inversionistas
profesionales.
= Dividendos esperados de los activos segn los inversionistas
ordinarios.
= Tasa de descuento de los dividendos esperados por los
inversionistas profesionales.
= Tasa de descuento de los dividendos esperados por los
inversionistas ordinarios.
15
Tambin nos podemos encontrar con la probabilidad condicional de la determinacin del precio de un activo:
. Donde:
esperanza condicional;
son los
dividendos esperados;
es la rentabilidad esperada e;
es el conjunto de informacin disponible.
Esta ltima ecuacin constituye la pieza central de los eficientistas y su validez ha llevado varias dcadas de
anlisis e investigacin.
xxv
9
xxvi
10
Objeto
P
R
O
N
Tipo
De intervalo: es un intervalo de
valores, dentro del cual se espera que
este el valor.
T
I
C
O
Exactitud
(con base en
los errores)
S
Error cuadrtico promedio: exactitud
general
Comparacin
La funcin verosimilitud (Log-likelihood)
F u e n t e : El a bo r a c i n p r o pi a en ba s e e n D ie b o l d ( 1 9 9 8) .
xxvii
11
xxviii
12
Ta bl a 1 . 2: P r i n c i pa l es in v es t i ga c io n e s s o br e pr ed ic t i b il id a d
Ao
Autores
Investigacin
1981
Grossman y Shiller
Observan que el consumo16 es el mejor predictor de la variacin de los
precios de los activos.
1986
Chen,Roll y Ross
16
Ya que estas variables estn relacionada con el grado de aversin al riesgo. El consumidor por ejemplo,
decide si invierte en un activo o consume su ingreso en el presente.
xxix
13
descuento).
El rendimiento de los activos puede ser predectible porque el producto
agregado es predectible. Por lo que domina la relacin entre producto y
rendimiento. Utilizan un modelo intertemporal de equilibrio general17.
1990
Balvers, Cosimano
y McDonald
1991
Fama
1992
Bekaert y Hodgrik
1993
Nelson y Kim
1997
Kothari y Shanken
1998
Rantiff y Scholl
2001
Tono y Veronesi
2002
Valds*
2003
Parisi y Guerrero
2003
Salas*
2004
Johnston
Soriano*
17
Es aquel que abarca varias generaciones o bien es aquel cuyo periodo de estudio tiende a infinito.
Las primeras investigaciones de prediccin y aplicacin de modelos RNA, se situaron la mayora en E.U.
(Borsarge,1993;Tsibouris y Zeidenberg,1995;White,1993),Gran Bretaa (Tsibouris y Zeidenberg,1995), Japn
(Yoda,1994). Dichos modelos han sido empleados para predecir el nivel o el signo de los retornos de ndices
burstiles, entre otras aplicaciones relacionadas a la toma de decisiones en las reas de finanzas e inversin
(Bodie y Merton, 1999).
19
La particularidad de estos estadsticos es que utilizan el mtodo bootstrap para estimar la distribucin
asinttica no estndar de las pruebas estadsticas tradicionales.
18
xxx
14
2004
Parisi y Cornejo *
2005
Johnson y Badillo*
2005
Venegas e Islas*
2006
Parisi y Diaz
2006
Ludlow y Mota
2007
Guzmn et al*.
F u e n t e : El a bo r a c i n p r o pi a c o n ba s e e n G u z m n et a l ( 20 0 7 ) ; L u d l o w y M o t a
(2 0 0 6 ); P a r is i y D a z ( 20 0 6 ) y V en e ga s e Is l a s ( 2 0 0 5 ) .
20
Estos tipos de volatilidad asimtrica permiten que las noticias malas tengan mayor reaccin en el rendimiento
del ndice burstil que las noticias buenas.
21
(Stochastic Variance). Este tipo de modelo se puede ver como una alternativa de los modelos tipo ARCH, ya
que permite que la varianza dependa no solo de observaciones anteriores, sino de un proceso estocstico
subyacente, de tipo autor regresivo que rige la volatilidad.
22
(Long-memory stochastic volatility).Este modelo permite identificar tanto la persistencia como la memoria a
largo plazo.
xxxi
15
xxxii
16
Cuentan con una gran cantidad de neuronas o procesadores elementales donde cada uno de ellos trabaja
paralelamente con una pequea parte de un problema mayor.
24
Por sus siglas en ingles, Artificial Neural Networks.
25
Cuentan con muchas neuronas a travs de las cuales distribuyen su memoria
26
Tienen la capacidad de adaptarse al entorno modificado sus pesos y sinapsis de manera de encontrar una
solucin aceptable al problema.
xxxiii
17
27
xxxiv
18
F i gu r a 2 .1 : P a r t es d e u n a n eu r o n a b io l g ic a
F u e n t e : w w w. go o g l e .c o m . m x
xxxv
19
F i gu r a 2 . 2: S in a p s i s
F u e n t e : w w w. go o g l e .c o m . m x
La palabra sinapsis viene de sinaptena, las palabras griegas sin-, que significa "juntos", y hapteina, que
significa "con firmeza". Adems, debe considerarse que sinapsis es concepto de terminologa biolgica, pero
cuando se habla de RNA nos referimos a conexiones, enlaces o vnculos (Mehrotra et al., 2000).
xxxvi
20
xxxvii
21
F i gu r a 2 .3 : El e l e m e n t o d e pr o c es o i c o n n e n t r a d a s y u n a s a l id a .
xi1 (t)
xi2 (t)
EPi
Si (t )
xin (t)
F u e n t e : P r ez y M a r t n (2 0 0 3 )
F i gu r a 2 .4 : Es qu e m a c o n va r i a s n eu r o n a s c o n ec t a d a s .
xa1 (t)
w a1
xa2 (t)
wa2
xa3 (t)
w i1
EPa
w a3
EPi
x b1 ( t ) w b1
EPb
x b 2 ( t ) w b2
w b3
Si (t )
wi2
x b3 (t)
F u e n t e : P r ez y M a r t n (2 0 0 3 )
e i (t) =
ij
( t )w ij ( t )
(2.1)
j =1
e i (t) =
[x
ij
( t ) w ij ( t )] 2
(2.2)
j =1
e i ( t ) = [ x ij ( t ) w ij ( t )] i
(2.3)
j =1
F i gu r a 2 .5 : M o d el o d e n eu r o n a c o n u m br a l
- 1 i
xi1 (t)
xi2 (t)
xin (t)
w i1
wi2
EPi
Si (t )
w in
F u e n t e : P r ez y M a r t n (2 0 0 3 )
24
xl
Id e n t i d a d
Es c a l n
L in ea l a t r a m o s
Uso:
Cuando
la
salida de la neurona
es igual a su estado
de activacin
Uso: Cuando la
neurona
no
se
dispara mientras
la activacin no
supere un cierto
umbral.
Uso: La activacin
de la unidad est
obligada
a
permanecer dentro
de un intervalo.
G a u s s ia n a
Si g mo id e a
S in u s o id a l
Uso:
implica
el
clculo
de
cuadrados
de
distancias entre los
vectores de entrada
y los de pesos.
Uso: cuando se
requiera
una
funcin derivable,
con
un
incremento
monotnico
Uso:
Cuando
se
requiere
expresar
explcitamente una
periodicidad
temporal.
F u e n t e : El a bo r a c i n p r o pi a c o n ba s e e n P r e z y M a r t n ( 2 0 0 3 ) e H i l er a y M a r t n e z
(2 0 0 0 ).
La importancia la funcin sigmoidal es que su derivada es siempre positiva y cercana a cero para los valores
grandes positivos o negativos; adems, toma su valor mximo cuando x es cero. Esto hace que se puedan
utilizar las reglas de aprendizaje definidas para las funciones escaln, con la ventaja, respecto a esta funcin,
que la derivada est definida en todo el intervalo.
xli
25
F i gu r a 2. 7 : R ed n eu r o n a l c o n u n a c a pa o c u l t a .
L a pr i m e r a t ie n e 3 n eu r o n a s , l a s e gu n d a 2 y l a t e r c er a 1 .
Entrada
capa de entrada
capa oculta
capa de salida
salida
F u en t e: P r e z y M a r t n ( 2 0 0 3 )
xlii
26
xliii
27
obedece al tipo
de
E ocasiones la red no lograra aprender, por lo que la causas pudieran ser: (1) el modelo seleccionado no era el
adecuado, (2) que las caractersticas del modelo no sean las adecuadas (nmero capas, nmero de neuronas,
funciones de activacin,),(3) que los datos analizados no representen ninguna regularidad, por lo que la red
no puede extraer ninguna relacin entre ellos y (4) que se hayan realizado pocas iteraciones en el
entrenamiento.
28
xliv
Regla
Modelo de Red
On
Correccin
de error
Supervisado
Topologa
Off
Perceptron
2 cap as
Feedforward 35
Adaline/Madeline
2 cap as
Feedforward
Backpropagation
N capas
Feedforward
Brain-State-in-a-Bo x
Counterpropagatio n
1 capa
Conex.lat. 36
y Auto-Recu.
3 capas
Feedforward
Conex.lat.
y Auto-Recu
2 cap as
Feedforward
Associative R ew.
Penalt y
2 cap as
Feedforward
Adaptive Heuristic
Critic
3 capas
Feedforward
Refuerzo
Algunas
Aplicaciones
Autor(es)
Reconocimiento
de caracteres
impresos.
Filtrado de
seales.
Ecualizador
Adaptativo.
Modems.
Sntesis de voz
desde texto.
Prediccin.
Reconocimiento
de patrones.
Extracci n de
conocimiento de
bases de datos.
Comprensin de
imgenes.
Rosenblat
1958
Reconocimiento
o clasificaci n de
patrones.
Reconocimiento
o clasificaci n de
patrones.
Barto
1985
Widrow
Hoff
1960
Werbos,
Paker y
R um e l h a r t
1986
Anderson
1977
Hecht-NielSen
1987
Barto
1985
Barto
1983
35
Las redes multicapas, normalmente todas las neuronas de una capa reciben seales de entrada de otra capa anterior ms cercana a la entrada de la red y enva las seales de
salida a una capa posterior, mas cercana a la salida de la red. A estas conexiones se les denomina conexiones hacia delante (feedforward).
36
En las redes monocapa, se establecen conexione laterales entre las neuronas que pertenecen a la nica capa que constituye la red. Tambin pueden existir conexiones auto
recurrentes (salida de una neurona conectada a su propia entrada).Estas redes s utiliza tpicamente en tareas relacionadas con autoasociacin.
30
Estocstico
No
supervisado
Aprendizaje
Hebbiano
37
Boltzmann Machine
1 capa
Conex.lat
3 capas
Feedforward
Cauchy Machine
Hopfield
1 capa
Conex.lat
3 capas
Feedforward
1 capa
Conex.lat
Learning Matrix
Temporal
Assoc.Memory
1 capa
Crossbar
2 cap as
Feedback 37
Linear Associative
Memory
2 cap as
Feedforward
Optimal Lam
Drive-R einforcement
Fuzzy Associate
Memory
2 cap as/FF
1 capa
Conex.lat.
y Auto-Recu
2 cap as
Feedforward
2 cap as
Feedforward
Reconocimiento
de patrones
(imgenes, sonar
y radar).
Optimizaci n.
Reconocimiento
de patrones
(imgenes, sonar
y radar).
Reconstruccin
de patrones y
optimizacin.
Reconocimiento
de imgenes.
Desarrollo de
software.
Reconocimiento
de patrones (voz,
texto). Anlisis de
Mercados.
Reconocimiento
de cdigos.
Reconocimiento
de imgenes.
Desarrollo de
software.
Reconocimiento
de patrones (voz,
texto). Anlisis de
Mercados.
Hinton
Ackley
Sejnowski
1984
Szu
1986
Hopfield
1984
Steinbuch
1961
Amari
1972
Anderson
1968
Kohonen
1977
Wee
1968
Kohonen
1973
Klopf
1986
Kosko
1987
Cuando existe a posibilidad de conectar las salidas de las neuronas de capas posteriores a as entradas de capas anteriores se les denomina conexiones hacia atrs (feedback)
31
Additive Grossberg
Shunting Grossberg
Bidirectio nal
Associative Memory
Adaptive Bam
Aprendizaje
Competitivo
/
Cooperativo
Learning Vector
Quantizer
Cognitron/Neocognitr
on
Topology Preserving
Map
1 capa
Conex.lat.
y Auto-Recu
1 capa
Conex.lat.
y Auto-Recu
2 cap as
Feedforward/
Feedback
2 cap as
Feedforward/
Feedback
2 cap as
Conex.lat.
Implic.
Autorrec.
Jerarqua de
Niveles con
capas
bidimens. FF/
F.Back
2 cap as
FF
Conex.lat
Implic.
Autorrec.
2 cap as
Feedforward/
Feedback/
conex.lat.
Auto-Recu.
Modelo mas
ampliamente
aplicado.
Grossberg
1968
Grossberg
1973
Desarrollo de
software.
Reconocimiento
de patrones (voz,
texto). Anlisis de
Mercados.
Kosko
1988
Kosko
1987
Problemas de
clasificacin y
segmentacin de
imgenes.
Reconocimiento
de caracteres
manuscritos.
Kohonen
1981
Reconocimiento
de patrones,
codificacin de
datos.
Optimizaci n.
Reconocimiento
de patrones
(radar, sonar,
etc.)
Kohonen
1982
Fukushima
1975/1980
Carpenter
Grossberg
1987
32
La red backpropagation a diferencia del perceptron simple, las neuronas tiene que tener una funcin de
activacin continua (por tanto, derivable)
39
La red backpropagation, pertenece a la clasificacin de aprendizaje supervisado el cual mantiene a un
supervisor el cual indica si el sistema acta correctamente o si la respuesta la red es deseable o si la magnitud
del error es la esperada.
40
Como principal inconveniente esta la lentitud de su convergencia. Tambin se puede presentar posibilidad
de sobreajuste (es decir, que la red memorice los datos de entrenamiento y no sea capaz de responder
adecuadamente a nuevas entradas) y puede detenerse en mnimos locales de la funcin de error.
33
Wji (t + 1) = pj y pi
(2.4)
En este tipo de red se puede determinar el error cometido por las unidades de salida. Sin embargo para las
neuronas de capas ocultas no se puede determinar tal valor. Por ello se ha extendido la regla delta a redes con
capas ocultas lo que da lugar a la generalizacin de la regla.
34
pj = (d pj y pj ) f (net j )
(2.5)
pj = pk w kj f (net j )
k
(2.6)
(2.7)
42
Decidir el nmero de neuronas que debe de tener una capa oculta, no siempre resulta tan evidente. El nmero
de neuronas ocultas intervienen en la eficiencia del aprendizaje y de la generalizacin de la red. No hay ninguna
regla que indique el nmero ptimo. La idea ms utilizada, consiste en tener el menor nmero posible de
neuronas en la capa oculta, porque cada una de ellas supone una mayor carga de procesamiento.
36
F i gu r a 2 . 8: A r qu it ec t u r a d e u n a r e d ba c k pr o pa ga t io n . P u ed en ex is t ir n eu r o n a s
fic t ic ia s 43 c o n s a l id a 1 y pe s o s u m br a l d e e n t r a d a a l r es t o d e l a s n eu r o n a s
c a d a c a pa .
de
Capa de salida
1
Capa oculta
N
Capa de entrada
F u e n t e : H il e r a y M a r t n e z (2 0 0 0 )
los
pesos
de
la
red
con
valores
pequeos
43
Una neurona de entrada dummy (ficticia) con entrada constante (=1) se utilizada para que el sesgo o el
umbral puedan ser tratados como cualquier otra ponderacin en la red.
44
(Entre -1.0 y 1.0 o -0.5 a 0.5) ya que si empezamos con valores grandes nos llevara a la saturacin de las
neuronas de la primera capa y como consecuencia mayor tiempo de entrenamiento.
37
(2.8)
i 1
y pj = f jh (net hpj )
(2.9)
o
k
(2.10)
o
pk
y pk = f ( net )
(2.11)
45
El nmero de neuronas en las capas ocultas queda a discrecin y generalmente depende de la complejidad del
problema.
46
La funcin sigmoidal (de forma-s) es continua, derivable en cada punto y es asintticamente al aproximare a
sus valores de saturacin.
38
f ko = f ko (1 f ko ) = y pk (1 y pk )
(2.13)
Por lo que los trminos de error para las neuronas de salida quedan:
opk = (d pk y pk )
(2.14)
(2.15)
(2.16)
(2.17)
47
Si la neurona j, no es de salida, entonces la derivada parcial del error puede ser evaluada directamente.
39
(2.18)
ep =
1 M 2
pk
2 k =1
(2.19)
Para acelerar la convergencia del modelo, sus propios diseadores propusieron introducir un trmino a la
expresin que determina la variacin de los pesos, denominado termino momento, que ser proporcional a la
diferencia entre los pesos actuales y previos de la neurona correspondiente (determina el efecto en cada
interaccin del cambio de los pesos en la interaccin previa). Con ello, si el incremento de un peso es alto, la
siguiente interaccin tambin lo ser. Si los incrementos de un peso oscilan (a veces son positivos o negativos)
el incremento efectivo se reduce al cancelarse.
49
El desempeo de las redes neuronales frecuentemente se considera en trminos de la medicin del error. La
ms popular es la distancia Euclidean .
50
En las tcnicas de gradiente descendente es conveniente avanzar por la superficie del error con incrementos
pequeos de los pesos. Esto se debe a que tenemos una informacin local de la superficie y no se sabe lo lejos o
lo cerca que se est del punto mnimo. Con incrementos grandes, se corre el riesgo de pasar por encima del
punto mnimo sin conseguirse estacionarse en el. Elegir el incremento adecuado influye en la velocidad con el
que converge el algoritmo. Esta velocidad se controla a travs de la constante proporcional o tasa de
aprendizaje.
40
e
e=
p =1
(2.20)
w ji =
e p
(2.21)
w ji
e p
w ji
e p
Net j
Net j
(2.22)
w ji
Donde la derivada del error respecto a Net j indica como vara el error
al variar de la entrada de la neurona j, y la derivada de Net j con
respecto a un peso indica como varia la entrada a la neurona j al variar
el peso de la conexin que va de la neurona i a la neurona j.El segundo
trmino de la expresin (2.22) se calcula a partir de la ecuacin donde
cada clula de la red cambia su salida
Net j
w ji
w ji y pi
=
w ji
= y pi
(2.23)
La variacin de error respeto a cada peso de la red representa el vector de mxima pendiente en un punto
determinado de la superficie del error. El cambio que se realiza en cada peso para ajustar la red es proporcional
a ese vector en una constante negativa. De esta manera, el algoritmo de retropropagacin hace que se vayan
bajando por la superficie de error hasta alcanzar un mnimo. Por lo tanto, se determina que el incremento de un
peso de la red en una interaccin, al procesar un patrn, es proporcional al cambio del error respecto a ese peso
en una constante negativa, es decir, proporcional al gradiente descendente.
41
e p
Net j
= pj
(2.24)
e p
w ji
= pj y pi
(2.25)
w ji = pj ypi
(2.2 6)
pj =
e p y pj
y Net
Net j
j
pj
e p
(2.27)
y pj
Net j
(f ( Net j ))
Net j
= f ( Net j )
(2.28)
w ji = (d pj y pj ) f ( Net j ) y pi
(2.30)
e p Net k
=
Net
p pj
y pj
k
k
e p
(2.31)
e p
w ji
Net
w
e p
ji
Net
e p
y j
y j
Net j
Error que se
produce a la
Salida de la red
w j1
Net k1
w j2
Netj
ep
yj
Niveles
de
neuronas
w j3
Nivel de
salida
Net kn
Net k
y j
e p
Net k
F u e n t e : H il e r a y M a r t n e z (2 0 0 0 )
43
e p
y pj
(w kj y pj )
e p
e p
j
=
w kj
=
y pj
k Net k
Net k
e p
Ypj
= ( pk w kj ) = ( pk w kj )
k
(2.32)
(2.33)
w ji = ( pk w kj ) f (Net j )y pi
(2.34)
f (x) =
1
1 + e x
(2.35)
yj =
(1 + e )
Net j
1
=
w y
1 + e ji i
(2.36)
44
f ( x ) =
e x
1
e x
=
1 + e x 1 + e x
(1 + e ) (
x 2
)(
e x + 1 1
e x + 1
1
f (x )
=
f
(
x
)
= f (x )(1 f (x ))
x
x
1+ e
e + 1 1 + e x
(2.37)
Y por lo tanto:
(2.38)
w ji = ( pk w kj )y pj (1 y pj )y pi
(2.39)
Donde
pk
w ji = (d pj y pj )y pj (1 y pj )y pi
(2.4o)
46
52
47
Ta bl a 3 .1 : Cl a s if ic a c i n d e l o s m o d el o s p a r a m t r ic o s
Cl as if ic a c i n T c n ic as
de
T ip o s
C a r ac t er s ti c as
p r ed i cc i n
Modelos
de
regresin
uniecuacionales
R ep r es en t a ci n
Yi = 0 + 1X1i + 2X2i + ui
Co n d ic io n a l es
Modelos
regresin
ecuacio nes
simultaneas 56
Modelos
P a r a m t r ic o s
In c o n d i c i o n a l e s
de
de
Modelos
autorregresivos
integr ados
de
media
mvil
(ARIMA) 57
Modelos
vectores
autorregresivos
(VAR)
C t = 0 + 1 Yt + u t
Parte
de
una
funcin
de
distribucin
y
establec e
a
priori una forma
funcional
de
Yt = C t + I t
Y t = + 1 Y t 1 + 0 u t + 1 u t 1
Yt = + 1Yt1 + 2Yt2 + vt
48
G r a f ic o 3 .1 : Te n d en c ia s d e l a s e r ie s d e t i em po .
Yt
Yt
(a)
Yt
(c)
(b)
Yt
(d)
F u e n t e : P r ez ( 2 0 0 6 ) .
49
3.2.2 Estacionariedad
Muy pocas series temporales reales del mundo econmico son
estacionarias. La mayora suelen presentar tendencia, varianza no
constante y
variaciones estacionales. La presencia de variaciones
estacionales se traduce en una variabilidad de la media del proceso, lo
que es contrario a la hiptesis de estacionalidad. Pero normalmente, es
posible transformar muchas series no estacionarias en otras
aproximadamente
estacionarias,
sometindolas
a
operaciones
algebraicas adecuadas (Prez, 2006).
En general podemos seguir algunos pasos para identificar la tendencia
de nuestra serie, si con la primera diferencia es estacionaria entonces
la tendencia de la serie original puede ser
lineal, exponencial o
logartmica, pero si con la segunda diferencia es estacionaria entonces
el patrn de tendencia de la serie original se describe como una
cuadrtica.
Por ejemplo de I(1) la mayora de las flujos o stocks macroeconmicos
que guarda relacin con el tamao de la poblacin tales como la
produccin o el empleo ya que crecen constantemente. Las series del
PIB nominal son un ejemplo de I(2) es creciente a una tasa de
crecimiento creciente. Las series que son I(3) o de mayor grado son
extremadamente inusuales por ejemplo, niveles de precios en
economas hiperinflacionarias tal como en Alemania
entreguerras
(Greene, 1999).
A continuacin se presenta una tabla (3.2) en donde se especifica el
grado de integracin para una determinada tendencia. Por lo que queda
de manifiesto que el nmero de grados de integracin, en realidad
describe el nmero de cambios de direccin de la tendencia. Por lo
tanto, una tendencia que ha sido identificada y estimada, puede
aislarse, lo que dara lugar a una serie estacionaria.
Ta bl a 3 . 2 : G r a d o d e i n t e gr a c i n p a r a d is t i n t a s t en d en c i a s
T e n d e nc i a
T r a ns f o r m a ci n
Gr a do
de
i nt eg r a c i n
l i n ea l
I( 1 )
z = x x
t
Ex po n en c ia l
c u a d r t ic a
C b ic a
.
t 1
z t = ln x t ln x t1
w t = x t x t 1
z t = w t w t 1
.
.
I( 1 )
I( 2 )
I( 3 )
.
F u e n t e : El a bo r a c i n p r o pi a c o n ba s e e n P r e z ( 2 0 0 6 )
50
ejemplo, Yt = 1 + 2 t + Yt 1 + i Yt i + t ,
donde
es
la variable
de
i =1
51
yt = {y1 , y2 , y3 ,...,yn }
(3.1)
yt = pt + t
El historial de los valores de
(3.2)
E ( t ) = 0 , E ( t t 1 ) = 0
(3.3)
52
63
yt = + 1 yt 1 + 2 yt 2 + ... + p yt p + t
(3.4)
yt = 1 yt 1 + t
(3.5)
62
53
yt = 1 yt 1 + 2 yt 2 + t
(3.6)
yt = 3 yt 3 + 5 yt 5 + t
(3.7)
yt = 1 t 1 2 t 2 ... q t q + t
(3.8)
yt = 1 t 1 + t
(3.9)
y t = + 1 y t 1 + 2 y t 2 + ... + p y t p
1 t 1 2 t 2 ... q t q + t
(3.10)
55
65
En este apartado se analizan los modelos ARIMA univariados, es decir, los modelos ARIMA relacionados
con series de tiempo univariadas.
56
G r f ic o 3 . 2. P r o c es o d e c o n s t r u c c i n d e u n m o d el o A R IM A ( B -J )
Datos de la serie
Transformacin de la serie
No
Es la serie
estacionaria?
Seleccin de
dy
Si
Seleccin de p,q y decisin sobre la
inclusin de .
ES
TI
MA
CION
Clculo de estimadores y
Clculo de estadsticos de
los estimadores y de los
residuos.
Fuente: Perez.
VA
LI
DA
CION
No
Es el modelo
adecuado?
Si
Seleccin de los periodos de
prediccin
P
R
E
D
I
C
C
I
O
N
Clculo de predicciones y
Clculo de estadsticos para
evaluacin de a capacidad
predictiva
Predice
correctamente?
No
57
66
E(b) = b
) b
de forma que sesgo = E(b
Que el estimador sea optimo o eficiente significa que su varianza es mnima (Salvatore y Reagle, 2004).
58
var( t ) = 2t = 0 + 1 2t 1 + 2 2t 2 + ... + p 2t p
(3.11)
(3.12)
Ta bl a 3 . 3 : A l gu n o s m o d el o s A R CH
A o Mo d el o
Au to r es
Es p ec if i c ac i n d e l a v a r i anz a
1982
A R CH ( q )
En gl e
1 9 86
G A R CH ( p , q)
Bo l l e r s l ev
Primer desarrollo
(trmino
de
error)
2t = 0 + 1 2t 1
i =1
1 9 89
I G A RC H (1 ,1 )
En gl e
y
Bo l l e r s l ev
Co n tr ib u ci n
p r in c ip al
i =1
j=1
2t = 0 + 1 2t 1 + j 2t j
2t = 0 + 12t1 + (1 1 )Yt21
Observaciones
pasadas (trmino
de
error
y
varianza)
Persistencia en la
varianza
condicional.
Modelo clave en
la
mtrica
del
riesgo.
1 = 2 = ... = p = 0.
68
69
59
( )
( )
1991
E G A RC H (1 ,1 )
N el s o n
ln 2t = (1 1 )0 + 1 ln 2t1 + g( ti )
1993
T G A R CH
Glosten
et . a l
2t = 0 + t21 + 2t i + t i t2 i
Para procesos no
normales.
Carcter
asimtrico.
Recoge el efecto
aplacamiento
Diferenciacin
del parmetro en
subida
y
en
bajada.
F u e n t e : Br o o ks ( 2 0 0 6 )
2t = + 2t 1 + 2t 1
(3.13)
2t = + 1 2t 1 + 1 2t 1
(3.14)
Donde:
t = 2t t ; y t iid 70
Donde:
k =
70
3 1 (1 + 1 )
3
1 (1 + 1 ) + 212
(3.15)
60
61
32000
28000
24000
20000
16000
2008M07
2009M01
2009M07
2010M01
62
Mayor a 0.05
63
v t = ln
IPC
IPC
(4.1)
t 1
2.-Salidas
Las salidas correspondern al valor que corresponde al tiempo t a partir de los
rezagos que se establezcan, por ejemplo si decidimos una arquitectura de tres
neuronas de entrada, tendremos:
(4.2)
71
Aunque existen varios criterios del porcentaje para cada conjunto (entrenamiento y prueba) y el orden de los
datos (forma aleatoria, de mayor a menor, etc.) para efectos de pronstico se suele considerar un porcentaje alto
de los datos para el conjunto de entrenamiento, esto en parte porque mientras ms datos tengamos para este
mejor se podrn captar el comportamiento de nuestra serie, y el conjunto de prueba se consideran los valores
ms recientes ya que la intencin es pronosticar (datos no conocidos).
64
4.-Arquitectura de la red
Debido a que no existe una regla para establecer el tamao correcto de la red, sino
que va en funcin de la complejidad de cada problema; tomaremos como referencia
algunos aspectos como el hecho de que esta red est definida con al menos una capa
oculta y que el nmero de neuronas de esta debe ser el menor posible, aunque esta
aseveracin se contradice con el error cuadrtico medio (MSE). En consideracin
con lo anterior, proponemos 4 estructuras distintas (manteniendo la misma
metodologa) y seleccionaremos aquella en donde el MSE tanto la fase de
entrenamiento como en el primer rezago (es decir, analizaremos el ultimo datos que
no se incluy en la etapa de entrenamiento y la compararemos con el dato real,
obteniendo as el MSE de prueba) y mltiples rezagos72.
Prueba
Mltiples rezagos
0.0033
0.0037
0.0026
0.0021
Para Mehrotra (2000) en problemas de pronstico, es importante considerar tanto el corto plazo (un rezago)
como el largo plazo (mltiples rezagos). La prediccin con un rezago, el pronstico del siguiente valor est
basado solo en los valores pasados. En la prediccin de mltiples rezagos, se consideran valores pronosticados
para predecir valores futuros. Por ejemplo, si tenemos 5 entradas para la red, el primer valor pronosticado ser
n6 ,
i3 , i 4 , i5 , n 6 , n 7
informacin actual
i3 , i 4 , i5 , i6 , i7 .
n 8 nicamente
usaremos la
valores futuros (seis meses) de una variables por varios periodos a partir de hoy, pero sin conocer los valores
previos (cinco meses).
73
En caso contrario, es decir que en la etapa de prueba el error sea mayor conforme se aumente el nmero de
neuronas y que en la etapa de entrenamiento disminuya pero no de forma considerable, nos indicara que la red
es ms grande de lo que requiere la aplicacin (Chakraborty, 1992).
65
1
2
.
.
.
.
2
.
.
.
9
9
capa oculta(9)
capa de salida(1)
F u e n t e : El a bo r a c i n p r o pi a
6.-Nmero de iteraciones
El objetivo de las iteraciones es minimizar el error, por lo que graficaremos este para
visualizarlo y tomar nuestros criterios a partir de su comportamiento.
74
Un valor cercano a cero implica que el pasado no tiene efecto en el cambio de los pesos, mientras que un
valor cercano a uno propone que el error actual tiene poco efecto.
66
inNumber=9
hidNumber=9
outNumber=1
Para inicializar los valores de los pesos para cada unidad de las capas
(oculta y de salida) usualmente, se inicia con valores muy pequeos,{entre
-0.1 y 0.1} y de forma aleatoria. Adems establecemos la tasa de
aprendizaje y el trmino momento.
hidWts=Table[Table[Random[Real,{-0.1,0.1}],{inNumber}],{hidNumber}]
outWts=Table[Table[Random[Real,{-0.1,0.1}],{hidNumber}],{outnumber}
eta=0.9
alpha=0.3
ioP=ioPairs[[Random[Integer,{1,Length[ioPairs]}]]]
{{0.0417,0.0042,-0.0108,0.0185,-0.0069,0.0381,0.0211,0.0229,0.0002},{0.0225}}
inputs=ioP[[1]]
{0.0417,0.0042,-0.0108,0.0185,-0.0069,0.0381,0.0211,-0.0229,0.0002}
outDesired=ioP[[2]]
{0.0225}
de
67
sigmoid[x_]=1/(1+e
hidOuts = sigmoid[hidWts.inputs]
0.498767,0.496127,0.49928,0.500748,0.498399,0.50195,0.497125,0.49959,0.5004
39}
outputs = sigmoid[outWts.hidOuts]
{0.515026}
outErrors = outDesired-outputs
{-0.492526}
hidWts+=hidLastDelta
{{0.0701457,-0.0912831,0.00629861,0.0244009,-0.0500867,-0.00549891,
0.0777069,0.0793153,-0.0567083},{-0.0239818,0.0375802,-0.0108675,0.0203209,-0.0588904,-0.0664055,0.0438627,-0.0695319,-0.0724491}
,{0.0323423,0.0966544,0.00633559,0.0635824,-0.048363,0.0166165,0.0362257,0.0547456,0.0452547},{0.0590312,-0.013455,
0.0396659,0.0672186,0.0794535,-0.0568748,0.0843136,-0.0702316,-0.00957821}
,{0.0633976,0.0429786,0.0960935,0.0468222,0.03307,0.015447,-0.0363263
,
0.0500131,-0.0734075},{0.0519226,-0.0877453,-0.033302,-0.00975108
,0.0973003,-0.032779,0.00779061,-0.0962026,0.037073},{-0.000127196,
0.0281671,0.0605637,0.0527495,-0.0299972,-0.0624422,0.0970863,-0.0902873,0.0261579},{-0.00914418,-0.0358432,-0.00562848,-0.0898633,0.0408099,0.0623865,0.0424114,0.0978812,-0.025899},{0.0474782,
0.0451929,
0.03076,
0.0662727,0.0435137,-0.0919823,-0.0691485,-0.0618483,0.0829761}}
outWts+=outLastDelta
{{-0.102415,0.00338119,-0.157172,0.0280265,-0.112092,-0.0711536,0.0477504,-0.0359703,-0.00667214}}
F u e n t e : El a bo r a c i n p r o pi a
68
F u e n t e : El a bo r a c i n p r o pi a
bpnMomentum[9,9,1,ioPairs_,0.9,0.3,50] :=
F u e n t e : El a bo r a c i n p r o pi a
69
bpnMomentum[9,9,1,ioPairs_,0.9,0.3,100] :=
len=Length[inputs];
errorSum = Apply[Plus,Error^2,2];
errorTotal = Apply[Plus,errorSum];
Print["Mean Squared Error= ",errorTotal/len]
Mean Squared Error=0.00410988
F u e n t e : El a bo r a c i n p r o pi a
nmero de pesos y
90
1 - .95
1800
hidWts += {{0.0306419,0.0143189,0.00643774,0.0777684,0.0845226,0.0691958,0.0485151,-0.0932685,0.0260892},{-0.00907035,0.0746094,-0.0165642,0.0864969,0.0700785,-0.0200289,-0.0177612,-0.0140097,0.0108697},{0.076433,-0.0473828,-0.0540102,0.0286728,0.0230133,0.0770888,0.0153793,0.0852328,-0.08309},{0.0997182,0.0312681,-0.0537706,0.0656229,0.091579,0.0942831,0.056194,0.0914696,0.00871274},{0.0922097,0.0861057,0.012338,0.0732033,0.00466473,-0.0240178,-0.0106433,0.0745685,0.0404648},{0.0470594,0.0665063,0.0977464,0.0442853,0.0305172,0.0503477,0.0
992615,-0.0865082,-0.0150552},{0.0840883,-0.092562,0.091108,0.0289871,0.0917388,-0.000920523,-0.0823315,0.043387,-0.020324},{0.0279173,0.0128596,-0.0310988,0.0906435,-0.00308475,-0.0464533,0.0227618,0.0753454,-0.000684884},{0.00921538,0.0921283,-0.0240628,0.000414797,0.00479431,0.00737341,-0.0077495,-0.00657543,-0.0133666}}
outWts += {{-0.566707,-0.643772,-0.549068,-0.675448,-0.710143,-0.72427,0.620916,-0.587386,-0.578774}}
Aqu se establecer como salida deseada el primer dato que no se incluy
en la etapa de entrenamiento (0.006825) y las entradas son los rezagos.
ioP=ioPairs= {{0.011801,0.010225,0.009582,0.00497,0.010065,0.006215,0.008343,-0.019096,-0.031506},{0.006825}}
inputs=ioP[[1]]
{0.011801,0.010225,0.009582,0.00497,0.010065,0.006215,-0.008343,-0.019096,0.031506}
outDesired=ioP[[2]]
{0.006825}
la
salida
deseada
la
obtenida.
71
outErrors=outDesired-outputs
{-0.0488648}
outErrors.outErrors
0.00238777
F u e n t e : El a bo r a c i n p r o pi a
F u e n t e : El a bo r a c i n p r o pi a
72
73
Esquema ARMA y
GARCH significativos
p-valores inferiores a
0.05
GARCH (0,1)
cumple con la no
negatividad de
varianza
Grfico 4.8: Correlograma de los residuales al cuadrado
75
74
La varianza se
logra estabilizar
75
F u e n t e : El a bo r a c i n p r o pi a
Tabla 4.8:
Estadsticos descriptivos y el MSE dentro de la muestra.
IPC
Mean
RNA
GARCH
26127.82
27594.89
26183.57
26282.56
27761.46
26157.24
Maximum
33908.2
35808.91
34138.37
Minimum
17251.29
18217.65
17347.02
Std. Dev.
4984.993
5263.868
5013.313
Skewness
-0.05525
-0.05498
-0.028026
Kurtosis
1.632404
1.632445
1.654968
Jarque-Bera
7.216363
7.215482
6.946971
Probability
0.027101
0.027113
0.031009
Sum
2403760
2538730
2408888
2.26E+09
2.52E+09
2.29E+09
Observations
92
92
92
0.0041
0.0014
Median
MSE
Fuente: Elaboracin propia.
77
F u e n t e : El a bo r a c i n p r o pi a
Para fuera de la muestra la RNA fue muy superior que el GARCH (0,1),
dado que el IPC tuvo una desviacin estndar de 645.63, la RNA un
valor de 679.44 y el GARCH (0,1) un valor de 465.46. Siguiendo el
mismo criterio de arriba, se observ que la desviacin standard ms
cercana a la serie original del IPC, fue la de la RNA (9-9-1). Respecto
al MSE, el modelo GARCH tiene un valor inferior con respecto a la RNA
sin embargo, este dato no nos indica que siga la tendencia del IPC.
Tabla 4.9:
Estadsticos descriptivos y el MSE fuera de la muestra.
IPC
RNA
GARCH
78
Mean
31644.88
33412.75
31742.53
Median
31406.35
33164.77
31620.96
Maximum
32663.88
34485.53
32405.01
Minimum
30941.39
32667.7
31149.08
Std. Dev.
645.636 679.4424
465.4625
0.640352 0.634982
0.312996
Skewness
Kurtosis
1.983712
1.991257
1.835905
Jarque-Bera
0.668261
0.657593
0.436746
0.71596
0.719789
0.803826
Sum
189869.3
200476.5
190455.2
2084229
2308210
1083277
Observations
Probability
MSE
Fuente: Elaboracin propia
0.0022
0.000539
F u e n t e : El a bo r a c i n p r o pi a
Conclusiones
79
Bibliografa
81
82
error
propagation,
Parallel
distributed processing:
84
Razn social
Serie
emisora
ALFA,S.A.B de C.V
Industrial-bienes de
equipo
ALFA
2.1
AMX
22.7
ARA
0.3
Servicio de
Telecomunicaciones
Industrialconstruccin
Industrial-transporte
ASUR
0.7
Materiales
AUTLAN
0.1
Servicios de
Telecomunicaciones
AXTEL
0.4
CPO
BIMBO
2.8
Productos de
consumo frecuenteAlimentos, bebidas y
tabaco.
Servicios financierosentidades financieras
BOLSA
0.3
Materiales
CEMEX
5.8
CPO
10
Controladora Comercial
Mexicana, S.A.B de C.V
Banco Compartamos, S.A,
Institucin de Banca mltiple.
Productos de
consumo frecuente
Servicios financierosentidades financieras
COMERCI
0.1
UBC
COMPART
1.0
11
76
Participacin efectiva con ajuste al 70% de acciones flotantes (datos al 30 de abril, 2010).
Emisoras que ingresaron este ao a la muestra que comprende de Febrero de 2010 a Agosto 2011.
78
ADR (American Depositary Receipts): Certificados negociables que se cotizan en uno o ms mercados accionarios, diferentes del mercado de origen de la emisin y constituyen la
propiedad de un nmero determinado de acciones.
77
85
12
13
Fomento Econmico
Mexicano, S.A.B de C.V
14
15
Servicios y bienes de
consumo no bsicoventa al por menor
Productos de
consumo frecuenteAlimentos, bebidas y
tabaco.
Industrial-transporte
ELEKTRA
3.4
FEMSA
4.3
UBD
GAP
0.8
Industrial-bienes de
equipo
GCARSO
2.2
A1
16
Industrialconstruccin
GEO
0.8
17
Servicios y bienes de
consumo no bsicoventa al por menor
Servicios financierosentidades financieras
Servicios financierosentidades financieras
Materiales
GFAMSA
0.2
Productos de
consumo frecuenteAlimentos, bebidas y
tabaco.
Productos de
consumo frecuenteAlimentos, bebidas y
tabaco.
Industrialconstruccin
18
20
21
22
19
23
Desarrolladora HOMEX,
S.A.B de C.V
GFINBUR
2.9
GFNORTE
3.5
Acciones de la serie A y B.
GMEXICO
6.8
GMODELO
1.8
GRUMA
0.3
HOMEX
0.6
86
24
25
Kimberly-Clark de Mxico,
S.A.B de C.V
26
27
28
29
Industrialconstruccin
Productos de
consumo frecuenteProductos domsticos
Materiales
ICA
0.8
KIMBER
1.6
MEXCHEM
1.5
Materiales
PE&OLES
2.2
Productos de
consumo frecuente
SORIANA
1.1
Servicios de
telecomunicacin
TELECOM
4.0
A1
Servicios de
telecomunicacin
Servicios de
telecomunicacin
Servicios de
telecomunicacin
Medios de
comunicacin.
Servicios de
telecomunicacin
Medios de
comunicacin
TELINT
2.3
TELMEX
1.9
TLEVISA
5.2
CPO
TVAZTCA
0.3
CPO
Industrialconstruccin
Productos de
consumo frecuente
URBI
0.7
WALMEX
12.5
30
31
32
33
34
35
87