Вы находитесь на странице: 1из 38

INSTITUTO TECNOLÓGICO SUPERIOR DE ACAYUCAN

ASIGNATURA

ESTADÍSTICA INFERENCIAL II
GEG-0908

CARRERA:

ING. EN GESTION EMPRESARIAL

NOMBRE Y NÚMERO DE LA ACTIVIDAD:

REGRESIÓN LINEAL MULTIPLE Y CORRELACIÓN. ACTIVIDAD 2

NOMBRE DEL ALUMNO(A):

PAULA FERNÁNDEZ CHAREO

GRADO Y GRUPO:
505 “D”

DOCENTE:

ING. VERÓNICA VÁZQUEZ VIVEROS


FECHA DE ENTREGA: 22/09/2017
INDICE

3. ANÁLISIS DE SERIES DE TIEMPO ........................................................................................ 2


3.1 COMPONENTES DE UNA SERIE DE TIEMPO ................................................................ 11
3.2 METODOS DE MINIMOS CUADRADOS ............................................................................ 15
3.3 METODOS DE PROMEDIOS MÓVILES ............................................................................. 19
3.4 MÉTODO DE SUAVIZAMIENTO EXPONENCIAL SIMPLE ............................................ 23
3.5 TENDENCIAS NO LINEALES .............................................................................................. 26
EJEMPLO: ...................................................................................................................................... 30
3.7 APLICACIONES ...................................................................................................................... 34
CONCLUSIÓN ................................................................................................................................ 35
BIBIOLGRAFÍA ............................................................................................................................... 36

1
INTRODUCCIÓN

Los métodos de análisis de series de tiempo consideran el hecho que los datos tomados
en diversos periodos de tiempo pueden tener algunas características de autocorrelación,
tendencia o estacionalidad que se debe tomar en cuenta.

Definición de serie de tiempo: Es una secuencia ordenada de valores de una variable en


intervalos de tiempo periódicos y consecutivos.

Aplicación: la aplicación de estos métodos tiene dos propósitos: comprender las fuerzas de
influencia en los datos y descubrir la estructura que produjo los datos observados. Ajustar
el modelo y proceder a realizar pronósticos, monitoreo, retroalimentación y control en
avance.

Las aplicaciones incluyen pronósticos económicos, análisis de presupuesto, análisis del


mercado, etc.

1
3. ANÁLISIS DE SERIES DE TIEMPO

El análisis de series de tiempo trata del estudio del comportamiento de una serie de tiempo
utilizando como fuente de información los valores pasados de la propia serie.
La metodología que se sigue para hacer este análisis es la aportada por los investigadores
Box y Jenkins, por lo que se conoce este tipo de análisis de series temporales como análisis
de Box Jenkins. También se puede encontrar con la denominación de modelos ARIMA.

Definiciones:
Proceso Estocástico: llamamos proceso estocástico a una sucesión de variables aleatorias
{Yt} donde t = -.....-1, 0, 1, 2,

Ruido Blanco: Es una sucesión de variables aleatorias con esperanza cero, igual varianza
e independientes en el tiempo {et}

Paseo Aleatorio: llamamos paseo aleatorio a un proceso estocástico {Yt} cuyas primeras
diferencias forman un proceso ruido blanco. Yt-Yt-1 =et D Yt = et
Un proceso estocástico es estacionario en sentido estricto si para toda m-tupla (t1,...tm) y
todo entero k, el vector de variables Yt1,...,Ytm) tiene la misma distribución de probabilidad
conjunta que el vector (Yt1+k,...,Ytm+k).

La estacionariedad en sentido débil ó de segundo orden se produce cuando los momentos


de primer y de segundo orden del proceso estocástico son invariantes en el tiempo.

La función de autocorrelación:
Se define la Autocovarianza para el retardo k:

k=E(YtYtt-k) k=-.....-2,-1,0,1,2,3.......... cuando k=0  2


0=E(Yt )=
2
y

La Función de Autocorrelacion (FAC) es una función compuesta por los llamados


coeficientes de autocorrelación, que se calculan como:

tanto los coeficientes de la función de autocovarianza como los coeficientes de la función


de autocorrelación son simétricos con respecto a k y supondremos, por ahora, que son

2
independientes del subíndice t, es decir, que estos coeficientes son constantes a lo largo
del tiempo y dependen solo de la longitud del retardo k.Para procesos reales se cumple
además:

k= -k ; k= -k; 0=1; [ k] 1
Ergocidad: las series temporales que se manejan en econometría están constituidas por
observaciones históricas, es decir, no proceden de la experimentación y por tanto, son
irrepetibles.

Una serie temporal puede contemplarse como una sola prueba de un experimento aleatorio
multivariante y constituye lo que se denomina una realización del proceso.
Los procesos que cumplen tales condiciones se denominan ergódicos.

Para hacer inferencias estadísticas en problemas donde interviene una solo variable
aleatoria es necesario recurrir a la repetición de experimentos.
Cuando un proceso estocástico cumple ciertas condiciones, es posible estimar
consistentemente sus características a partir de una realización del mismo. Los procesos
que cumplen tales condiciones se denominan ergódicos.
Un proceso estocástico estacionario es ergódico en la media, , si es posible estimar
consistentemente este parámetro haciendo uso de la media muestral temporal:

Función de autocorrelación muestral: en las aplicaciones prácticas, en las que se dispone


de ciertas observaciones, Yt t=1,...,T relativas a un proceso estocástico, la media del
proceso se puede estimar mediante:

.
Análogamente, la función de autocorrelación muestral se podrá calcular como:

La representación gráfica de , denominada correlograma muestral, constituye un


importante instrumento de análisis de series temporales.
3
Modelos Box-Jenkins
Para Series Estacionarias
El método Box-Jenkins define cuatro modelos para representar las series estacionarias:

AR(p ) Autorregresivo de orden p


MA(q) Promedio Móvil de orden q.
ARMA(p,q) Autorregresivo de orden p y Promedio Móvil de orden q.
ARIMA(p,d,q) Autorregresivo y Promedio Móvil diferencia d de Xt

AUTORREGRESIVO DE ORDEN P. AR(p)


Generalmente las observaciones de una serie de tiempo real son fuertemente dependientes
en el sentido que una observación (Xt) digamos la del periodo t puede expresarse como
una combinación lineal de las observaciones en los otros periodos anteriores.

Se puede expresar el valor de la observación en el periodo t como una regresión de los


valores de las observaciones en los periodos anteriores, es decir como una “autoregresion”

Xt = 1Xt-1 + 2Xt-2 + 3Xt-3 .... + pXt-p = iXt-i

PROMEDIO MOVIL DE ORDEN q. MA(q)


Cada observacion de la serie puede ser afectada por los errores del pasado, esta relación
permite expresar el valor de una observación (Xt) como una combinación lineal de los
residuales en los periodos anteriores.

ARMA(p,q)
Xt = 1et-1 + 1et-2 + 1et- 3 .... + 1et--q = 1et-i

Xt = 1Xt-1 + 2Xt-2 + 3Xt-3 ....+ pXt-p + 1et-1 + 1et-2 + 1et- 3 .. + 1et--q

ARIMA(p,d,q)
Xt = 1Zt-1 + 2Zt-2 + 3Zt-3 ....+ pZt-p + 1et-1 + 1et-2 + 1et- 3 .. + 1et--q

4
Donde Zt es la diferencia de orden d de Xt

Identificación del Modelo


La identificación del modelo comienza por determinar si la serie original es estacionaria.
Si la serie no es estacionaria se determina el orden de diferenciación d para el cual la serie
se hace estacionaria, así determinamos un primer parámetro (d) del modelo ARIMA.
Para identificar uno o varios modelos apropiados a la serie de tiempo procedemos a
examinar el comportamiento de los coeficientes de autocorrelacion total y de
autocorrelacion parcial.
Se sigue el siguiente procedimiento: cuando las autocorrelaciones totales decaen
exponencialmente hacia cero, se trata de un modelo AR de orden q.
El orden p es determinado por el numero de autocorrelaciones parciales que son
significativamente diferentes de cero.
El orden p del modelo se puede obtener trazando los límites: ±2/√n , en la gráfica de
los coeficientes de autocorrelacion parcial y aquel k que corresponda al ultimo
coefiente que se salga de los limites será el orden p.

De igual manera se encuentra el orden q trazando en la gráfica de las


autocorrelaciones totales los límites: ±(2/√n) √ 1+2 rv2

En la gráfica se presenta un proceso Autorregresivo de orden 1: AR(1).

+1 Autocorrelacion Autocorrelacion Parcial


+1

0
k 0
k

-1 -1

+1 +1

k 5 0
k
0

-1 -1
Si las autocorrelaciones parciales decaen exponencialmente hacia cero entonces el
modelo es un MA(q) y el orden q es determinado por el numero de autocorrelaciones
totales significativamente diferentes de cero.

En la grafica se presenta un modelo Promedio Móvil de orden 2: MA(2)

Autocorrelación
+1 +1

k
0 0

-1 -1

Autocorrelación
+1
+1

k 0
k
0

-1 -1

6
Cuando las autocorrelaciones totales y las autocorrelaciones parciales ambas decaen en
forma exponencial hacia cero, el modelo es de la forma ARMA(p,q).
Los ordenes p y q son determinadas con el numero de autocorrelaciones parciales y
autocorrelaciones totales respectivamente, significativamente distintas de cero.

En la grafica un modelo Autorregresivo ( 1) Pro Móvil (1): ARMA(1,1)

Autocorrelación
Autocorrelacion Parcial

+1 +1

k
0 0

-1 -1

Estimación de los parámetros del Modelo Arima


Una vez identificado el modelo tentativo se deben estimar sus parámetros, esta estimación
se realiza por medio de la aplicación de técnicas para minimizar una función nolineal de
varias variables (MSE), donde los valores de los parámetros estimados son aquellos que
hacen mínima a la media del error al cuadrado.

Diagnostico del Modelo Arima Tentativo


Para realizar el diagnostico del modelo tentativo, se deben realizar las siguientes pruebas
estadísticas:

Una prueba de significación de los parámetros del modelo


Un análisis de las autocorrelaciones totales y parciales de los residuales.
Una prueba de bondad de ajuste ji cuadrada (Box-Pierce) de las autocorrelaciones.
Un análisis grafico de los residuales

7
Si alguna de estas pruebas indica un modelo inadecuado, se identifica un nuevo
modelo, se estiman sus parámetros y se diagnostica, estos pasos se repiten hasta
conseguir un modelo tentativo que no repruebe ninguna de las pruebas estadísticas.

Prueba Box-Pierce
La prueba Box-Pierce es una prueba de bondad de ajuste de las autocorrelaciones de los
residuales.

Si las autocorrelaciones de los residuales están distribuidos según una distribución normal,
entonces los cuadrados de estas autocorrelaciones debe seguir una distribución ji cuadrado
con k-p-q grados de libertad.

La prueba de Box-Pierce se presenta como:


Ho rk es N(0,1)
Ha rk no es N(0,1).

El estadístico de la prueba es:


m
Q  ( N  d ) r 2
k 1 k
N = Numero de observaciones de la serie
d = El grado de diferenciación de la serie
rk = La autocorrelacion del residual k.
k = El numero de periodos que se verifican.
m = Numero de retrasos verificados.
La hipótesis Ho se acepta si: Q > k-p-q g.l

Si se acepta Ho el modelo es adecuado.

Series de Tiempo. Modelo Autorregresivo AR (P)


El Modelo

8
El valor de la observación que se obtiene en la etapa i-ésima depende linealmente de las
últimas p observaciones, más un error aleatorio representado por ei.

Otras hipótesis adicionales del modelo son:


El proceso es estacionario hasta el segundo orden (significa esto que la esperanza
estocástica de las observaciones es constante y que la covarianza entre observaciones
depende únicamente de su separación en el tiempo).

Los residuales ei son normales de media cero y varianza desconocida; estos residuales
son independientes entre sí y de las variables yi del proceso.
Ajuste del modelo
Tal como ha quedado especificado, el modelo AR(p) tiene p+2 parámetros a estimar a partir
de los datos observados:

Los p+1 coeficientes autorregresivos

La varianza de los residuales .


El método de estimación se hace con mínimos cuadrados, que consiste en calcular los
parámetros autorregresivos de forma tal que minimicen el error cuadrático:

Así, vector de los parámetros es:

9
Estimación de la varianza

El estimador mínimo de la varianza , o varianza residual, se calcula mediante

Validación del modelo


Es la fase en la que se comprueba que el modelo AR(p) explica aceptablemente la serie
numérica observada; en ella se debe analizar si las hipótesis del modelo son válidas.
Nos limitamos aquí al chequeo de los residuos estimados

Media nula y varianza constante:


La serie de residules estimados debe comportarse de forma que no experimente tendencias
ni alteraciones importantes en su variabilidad a lo largo del tiempo.

Independencia:
Para contrastar que los residuales son independientes se plantea la hipótesis nula
H0: los k primeros coeficientes de correlación son nulos:

H1: al menos existe un coeficiente no es nulo: .


Se calcula para ello el estadístico de Ljung-Box:

el cual se distribuye como una distribución , siendo (r1, r2, ..., rk) las correlaciones
correspondientes a los k primeros retardos.
El valor k elegido para la realización del test es el entero más próximo a 10 log10(n-p). El
contraste se realiza para un nivel de significación del 5%.

10
3.1 COMPONENTES DE UNA SERIE DE TIEMPO

LA IDEA DE QUE LAS SERIES ESTÁN FORMADAS POR COMPONENTES NO


OBSERVABLES DADA DE MEDIADOS DEL SIGLO XIX.

A PRINCIPIOS DEL SIGLO XX SE CREA EN FRANCIA, Y POSTERIORMENTE EN


EEUU, UN COMITÉ ENCARGADO DE ESTUDIAR MÉTODOS DE DESCOMPOSICIÓN
DE SERIES A FIN DE PRONOSTICAR CADA UNO DE ELLOS.

EN 1919 PERSONS PLANTEA QUE LAS SERIES DE TIEMPO CONSTAN DE CUATRO


COMPONENTES: TENDENCIA DE LARGO PLAZO, MOVIMIENTO CÍCLICO,
MOVIMIENTO ESTACIONAL Y VARIACIÓN RESIDUAL.

HERMAN WOLD (1954) PROPONE QUE TODO PROCESO ESTOCÁSTICO


ESTACIONARIO SE DESCOMPONE EN UNA PARTE DETERMINISTICA (TENDENCIA,
CICLO Y ESTACIONALIDAD) Y UNA PARTE ESTOCÁSTICA (ERROR).

EN 1979 NERLOVE, GRETHER Y CARVALHO PLANTEAN QUE LAS SERIES


CRONOLÓGICAS CONSTAN DE CUATRO COMPONENTES: TENDENCIA, CICLO,
ESTACIONALIDAD Y MOVIMIENTO IRREGULAR.

EL PRIMER PASO DEL ANALISIS DEBE SER GRAFICAR LA SERIE A FIN DE


DETECTAR COMPONENTES:

1) COMPONENTE TENDENCIAL (SECULAR): COMPONENTE DE LARGO PLAZO, QUE


REPRESENTA EL CRECIMIENTO O DECLINACIÓN DE LA SERIE EN EL TIEMPO.
CAMBIO EN LA MEDIA A LO LARGO DEL TIEMPO. GENERALMENTE MUESTRA UN
COMPORTAMIENTO “SUAVE”.

11
PIB REAL 1985-2006

14,000,000

12,000,000

10,000,000

8,000,000

6,000,000

4,000,000

2,000,000

0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82

2) COMPONENTE CÍCLICO: FLUCTUACIÓN EN FORMA DE ONDA EN TORNO A LA


TENDENCIA. SU PERIODICIDAD ES MAYOR A UN AÑO (POR LO GENERAL 3 A 5
AÑOS) Y TIENDE A REPETIRSE (CICLOS ECONÓMICOS). DIFERENCIA ENTRE VALOR
REAL Y ESPERADO.

TASA DE CAMBIO YEN-DOLAR

400.00
350.00
300.00
250.00
200.00
150.00
100.00
50.00
0.00
1 22 43 64 85 106 127 148 169 190 211 232 253 274 295 316

3) COMPONENTE ESTACIONAL: MOVIMIENTO PERIÓDICO O PATRÓN DE CAMBIO


REGULAR INTRA-ANUAL QUE SE REPITE EN MANERA SIMILAR EN EL MISMO
PERIODO DEL AÑO (TÍPICO DE DATOS FRACCIONADOS EN MENOS DE UN AÑO:
CAMBIOS CLIMÁTICOS, DATOS BASADOS EN CALENDARIOS).

GENERALMENTE ES CAUSADO POR FUERZAS NO ECONÓMICAS (CALENDARIO,


CLIMA, RAZONES INSTITUCIONALES, ETC), QUE ESCAPAN DEL CONTROL DE
LOS TOMADORES DE DECISIONES. IMPORTANTE SU ANÁLISIS EN EL CAMPO

12
DEL MERCADEO Y COMERCIALIZACIÓN, POR SUS IMPLICACIONES DE CORTO
PLAZO.

VENTAS TRIMESTRALES ATM

900
800
700
600
500
400
300
200
100
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27

4) COMPONENTE IRREGULAR O ALEATORIO: MIDE LA VARIABILIDAD ALEATORIA


(CAUSADA POR FACTORES IMPREVISTOS) DE LAS SERIES, DESPUÉS DE RETIRAR
LOS DEMÁS COMPONENTES. SUELE TENER UN EFECTO INMEDIATO Y DE CORTA
DURACIÓN (ATAQUE TERRORISTA, CATÁSTROFE NATURAL, PARO PETROLERO).
INCLUYE EL EFECTO DE OUTLIERS. EN CASO DE QUE EXISTAN DEBEN SER
ELIMINADOS O REEMPLAZADOS.

Consumo privado/PIB

120.00

100.00

80.00

60.00

40.00

20.00

0.00
1965

1967

1969

1971

1973

1975

1977

1979

1981

1983

1985

1987

1989

1991

1993

1995

1997

1999

2001

13
¿CÓMO ENTRAN LOS COMPONENTES EN LA SERIE1?

FORMA MULTIPLICATIVA FORMA ADITIVA

Y=TC (ANUALES) Y = T+S+C+


Y = T S C  (FRACCIONADOS)
UTIL EN SERIES CON
VARIACION ESTACIONAL
UTIL EN SERIES TEMPORALES
CONSTANTE
CON VARIACION ESTACIONAL
CRECIENTE O DECRECIENTE

14
3.2 METODOS DE MINIMOS CUADRADOS

Existen numerosas leyes físicas en las que se sabe de antemano que dos magnitudes x e
y se relacionan a través de una ecuación lineal

y = ax + b

Donde las constantes b (ordenada en el origen) y a (pendiente) dependen del tipo de


sistema que se estudia y, a menudo, son los parámetros que se pretende encontrar.

EJEMPLO: La fuerza F de tracción sobre un muelle y el alargamiento l que experimenta


éste están ligadas a través de una ley lineal:

l = (1/K)F

con ordenada en el origen cero y donde el inverso de la pendiente (K) es una


característica propia de cada muelle: la llamada constante elástica del mismo.

El método más efectivo para determinar los


parámetros a y b se conoce como técnica de
mínimos cuadrados.
Consiste en someter el sistema a diferentes
condiciones, fijando para ello distintos valores de la
variable independiente x, y anotando en cada caso
el correspondiente valor medido para la variable
dependiente y. De este modo se dispone de una
serie de puntos (x1,y1), .... (xn,yn) que,
representados gráficamente, deberían caer sobre
una línea recta. Sin embargo, los errores
experimentales siempre presentes hacen que no
se hallen perfectamente alineados (ver Fig. 1). El
método de mínimos cuadrados determina los
valores de los parámetros a y b de la recta que
mejor se ajusta a los datos experimentales. Sin
detallar el procedimiento, se dará aquí
simplemente el resultado:

15
n Σx i y i   Σx i Σy i 
a
 
(1)
n Σx i2  Σx i 
2

Σy i   a Σx i 
b (2)
n

donde n es el número de medidas y representa la suma de todos los datos que se


indican.
Los errores en las medidas, se traducirán en errores en los resultados de a y b. Se
describe a continuación un método para calcular estos errores. En principio, el método de
mínimos cuadrados asume que, al fijar las condiciones experimentales, los valores yi de la
variable independiente se conocen con precisión absoluta (esto generalmente no es así,
pero lo aceptamos como esencial en el método). Sin embargo, las mediciones de la
variable x, irán afectadas de sus errores correspondientes, si es el valor máximo de
todos estos errores, entonces se tiene:

n ε
Δa 
2
n
n 
n Σ x i2   Σ x i 
1 1 
(3)
ε
Δb 
n
La pendiente de la recta se escribirá a  a , y la ordenada en el origen b  Δb .

El coeficiente de correlación es otro parámetro para el estudio de una distribución


bidimensional, que nos indica el grado de dependencia entre las variables x e y. El
coeficiente de correlación r es un número que se obtiene mediante la fórmula:

n Σx i y i   Σx i Σy i 


r
n Σx   Σx  n Σy   Σy  
(4)
2 2 2 2
i i i i

Su valor puede variar entre 1 y -1.


Si r = -1 todos los puntos se encuentran sobre la recta existiendo una correlación que es
perfecta e inversa.
Si r = 0 no existe ninguna relación entre las variables.
Si r = 1 todos los puntos se encuentran sobre la recta existiendo una correlación que es
perfecta y directa.

16
Ejemplo: Supongamos un muelle sometido a tracción, se ha cargado el muelle con
diferentes pesos (F, variable independiente o y ) y se han anotado los alargamientos (l
variable dependiente o x)

Cargas Lecturas
sucesivas F(yi) sucesivas (xi)
L
gramos mm

200 60

400 120

500 150

700 210

900 260
1000 290

Los distintos datos que se necesitan son:

n 6
xi 1090
xi2 236300

yi 3700
yi2 2750000

xiyi 806000

0,2

con lo cual aplicando las expresiones [1] , [2], [3] y [4]

b = -18,4153; a =3,4959 ; b =0,08164966; a =0,00102217; r = 0,9995

17
Redondeando en la forma usual b = -18,42 ± 0,08 mm; a =3,50 ± 0,00 mm/Kp
No se debe olvidar que se persigue el valor de la constante elástica del muelle:

F
Ka
l

18
3.3 METODOS DE PROMEDIOS MÓVILES

Suaviza los datos al promediar observaciones consecutivas en la serie de tiempo. Este


método es adecuado cuando no hay componente de tendencia ni estacionalidad, sin
embargo hay alternativas si se presentan estos patrones.

Tiene una amplitud de pronóstico corta siguiendo una línea paralela.

MÉTODOS

Promedio móvil:

Se calcula el promedio móvil de la serie. Por ejemplo si se tienen los números 4, 5,


8, 9, 10 y se usa un promedio móvil de 3. Los primeros dos valores no existen. El
tercer valor es el promedio de 4, 5, y 8; el cuarto valor es el promedio de 5, 8, y 9;
el quinto valor es el promedio de 8, 9, y10.

Ejemplo:

Se desea predecir el empleo durante los próximos 6 meses en el segmento de


metales con los datos de los últimos 60 meses. Se usa el método de promedio
móvil si no se tienen patrones bien definidos de tendencia o estacionalidad en los
datos.

19
1 Open worksheet EMPLOY.MTW.
2 Seleccionar Stat > Time Series > Moving Average.
3 En Variable, seleccionar Metals. En MA length, poner 3.
4 Seleccionar Center the moving averages.
5 Seleccionar Generate forecasts, y poner 6 en Number of forecasts. Click OK.

Los resultados obtenidos se muestran a continuación:

Moving Average for Metals

Data Metals

Length 60

NMissing 0

Moving Average

Length 3

Accuracy Measures

MAPE 1.55036

MAD 0.70292

MSD 0.76433

Forecasts

Period Forecast Lower Upper

61 49.2 47.4865 50.9135

62 49.2 47.4865 50.9135

63 49.2 47.4865 50.9135

20
64 49.2 47.4865 50.9135

65 49.2 47.4865 50.9135

66 49.2 47.4865 50.9135

Moving Average Plot for Metals


52 Variable
Actual
Fits
50 Forecasts
95.0% PI

Moving Average
48
Length 3

Accuracy Measures
Metals

46 MAPE 1.55036
MAD 0.70292
MSD 0.76433
44

42

40

1 7 14 21 28 35 42 49 56 63
Index

Interpretación de resultados

Se obtiene la gráfica de serie de tiempo mostrando los valores observados y estimados (un
periodo adelante), además de los seis pronósticos. Note que el patrón de datos estimados
va detrás del patrón de datos.

21
3.4 METODOS DE SUAVIZACIÓN EXPONENCIAL

Los métodos de suavizamiento exponencial han sido utilizados con éxito a través de los
años en muchos problemas de pronóstico. Fueron sugeridos en 1957 por C.C. Holt para su
aplicación en series de tiempo sin tendencia ni estacionalidad. Posteriormente el mismo
ofreció un procedimiento que manejara tendencias. Después Winters en 1965 generalizó el
método para incluir estacionalidad, de ahí el nombre de “Método de Holt Winters”.

Suavizamiento exponencial simple (Holt)

Se aplica cuando solo si se tiene un comportamiento de la serie de tiempo sin tendencia o


estacionalidad.

Suaviza los datos por medio de la fórmula de pronóstico de ARIMA de un paso adelante
ARIMA (0,1,1). Este modelo trabaja mejor sin uno de los componentes de tendencia o
estacionalidad. El componente simple dinámico en un modelo de promedio móvil es el nivel.

Tiene una amplitud de pronóstico corta siguiendo una línea paralela.

22
3.4 MÉTODO DE SUAVIZAMIENTO EXPONENCIAL SIMPLE

Los valores suavizados (estimados) se obtienen ya sea con un peso óptimo generado o con
un peso específico manual.

Peso óptimo de ARIMA:

1. Se ajustan los datos con un modelo ARIMA(0,1,1) y se guardan los Y estimados.

2. Los valores suavizados son los valores Y estimados por ARIMA, pero desplazados en
una unidad de tiempo.

3. El valor inicial (en tiempo uno) por atraso es:

Valor inicial suavizado = [Valor suavizado del periodo 2 - (dato en periodo 1)] / (1-)

Donde (1-) estima el parámetro MA.

Peso especificado

1. Se usa el promedio de los primeros seis (o N si N<6) observaciones para el valor inicial
suavizado (en tiempo uno).

2. Los valores suavizados subsecuentes se calculan de la fórmula:

Valor suavizado en tiempo t = (dato en periodo t)] + (1-) (valor suavizado en periodo t-1)

Donde  es el peso.

Pronósticos: el valor estimado en el periodo t, es el valor suavizado en el periodo


t – 1. Los pronósticos son los valores estimados en el origen de pronóstico

23
Por ejemplo:

Se desea predecir el empleo durante los próximos 6 meses en el segmento de


metales con los datos de los últimos 60 meses. Se usa el método de promedio
móvil si no se tienen patrones bien definidos de tendencia o estacionalidad en los
datos.

1 Open worksheet EMPLOY.MTW.


2 Seleccionar Stat > Time Series > Single Exp Smoothing.
3 En Variable, poner Metals.
4 Seleccionar Generate forecasts, y 6 en Number of forecasts. Click OK.

Los resultados se muestran a continuación:

Single Exponential Smoothing for Metals


Data Metals

Length 60

Smoothing Constant

Alpha 1.04170

Accuracy Measures

MAPE 1.11648

MAD 0.50427

MSD 0.42956

Forecasts

Period Forecast Lower Upper

61 48.0560 46.8206 49.2914

62 48.0560 46.8206 49.2914

63 48.0560 46.8206 49.2914

64 48.0560 46.8206 49.2914

65 48.0560 46.8206 49.2914

66 48.0560 46.8206 49.2914

24
Single Exponential Smoothing Plot for Metals
52 Variable
Actual
Fits
50 Forecasts
95.0% PI

Smoothing Constant
48
Alpha 1.04170

Accuracy Measures
Metals

46 MAPE 1.11648
MAD 0.50427
MSD 0.42956
44

42

40

1 7 14 21 28 35 42 49 56 63
Index

Interpretación de resultados

Se obtiene la gráfica de serie de tiempo mostrando los valores observados y estimados (un
periodo adelante), además de los seis pronósticos. Note que el patrón de datos estimados
va detrás del patrón de datos.

Se indica la constante de suavizamiento (peso) utilizada y las medidas MAPE, MAD y MSD
de 1.12, 0.70 y 0.76 con un mejor ajuste que en el método de promedio móvil con valores
1.55, 0.70 y 0.76 respectivamente.

25
3.5 TENDENCIAS NO LINEALES

TENDENCIAS NO LINEALES, REGRESIÓN NO LINEAL • Es un método para encontrar un


modelo no lineal para la relación entre la variable dependiente y un conjunto de variables
independientes • la regresión no lineal, puede estimar modelos con relaciones arbitrarias
entre las variables independientes y las dependientes. • Esto se lleva a cabo usando
algoritmos de estimación iterativos. Teniendo en cuenta que este procedimiento no es
necesario para los modelos polinómicos simples de la forma Y=A BX 2.

3.6 VARIACIÓN ESTACIONAL

Un supuesto en muchas técnicas de series de tiempo es que los datos son estacionarios,
donde su media, variancia y autocorrelación no cambia en el tiempo, tampoco se presentan
patrones de estacionalidad, sin embargo en la práctica si se presentan estos patrones de
tendencia y de estacionalidad y es necesario contar con modelos que las consideren.

Tendencias: Si los datos muestran una tendencia, se pueden ajustar los datos con algún
tipo de curva o recta y modelar los residuales. Como el propósito del ajuste es simplemente
remover la tendencia a largo plazo, una línea recta es suficiente.

Por ejemplo:

26
Removiendo la tendencia a largo plazo, los residuales quedan como sigue:

Estacionalidad: son fluctuaciones periódicas, por ejemplo cuando hay picos de ventas en la
navidad y después declinan. La serie de tiempo de ventas mostrarán un incremento durante
septiembre a diciembre y una declinación durante enero y febrero.

Para detectar la estacionalidad se pueden utilizar diferentes métodos gráficos donde se


observe la estacionalidad en el tiempo:

1. Gráfica de valores contra el tiempo

27
2. Diagramas de caja múltiples

28
3. Gráfica de estacionalidad por subserie

Comportamiento anual y subserie mostrando la estacionalidad

En la gráfica anterior se observa un comportamiento mensual, con un máximo en Junio y


un mínimo en Septiembre.

29
EJEMPLO:

Se desea predecir la tasa de empleo para los siguientes 12 meses en base a datos
colectados durante los últimos 60 meses. Como los datos tienen una tendencia que se
ajusta bien con un modelo de tendencia cuadrática y tiene un componente estacional se
utilizan los residuos del ejemplo del análisis de tendencias para combinar el análisis de
tendencias y descomposición para pronosticar.

Las intrucciones de Minitab son las siguientes:

1 Correr el ejemplo de Análisis de Tendencias

2 Stat > Time Series > Decomposition.

3 En Variable, indicar la columna de los residuos obtenidos en el análisis de tendencias (donde


fueron almacenados).

4 En Seasonal length, poner 12.

5 EnModel Type, seleccionar Additive. En Model Components, seleccionar Seasonal only.

6 Seleccionar Generate forecasts y poner 12 en Number of forecasts.

7 Seleccionar Storage . Seleccionar Forecasts y Fits.

8 Seleccionar OK en cada cuadro de diálogo

Time Series Decomposition for RESI1

Additive Model

Data RESI1

Length 60

NMissing 0

Accuracy Measures

MAPE 881.582

MAD 2.802

MSD 11.899

Seasonal Indices

Period Index

30
1 -8.4826

2 -13.3368

3 -11.4410

4 -5.8160

5 0.5590

6 3.5590

7 1.7674

8 3.4757

9 3.2674

10 5.3924

11 8.4965

12 12.5590

Forecasts

Period Forecast

61 -8.4826

62 -13.3368

63 -11.4410

64 -5.8160

65 0.5590

66 3.5590

67 1.7674

68 3.4757

69 3.2674

70 5.3924

71 8.4965

72 12.5590

31
Time Series Decomposition Plot for RESI1
Additive Model
20 Variable
Actual
Fits
Trend
10 Forecasts

Accuracy Measures
MAPE 881.582
MAD 2.802
RESI1

0 MSD 11.899

-10

-20
1 7 14 21 28 35 42 49 56 63 70
Index

En esta gráfica se muestran los residuos sin tendencia cuyo ajuste es adecuado, excepto
que al inicio del periodo anual los valores son subestimados y al final del periodo anual los
valores son sobreestimados, también es evidente en la gráfica de abajo donde los residuos
son mayores al principio y menores al final de la serie.

Seasonal Analysis for RESI1


Additive Model
Seasonal Indices Original Data, by Seasonal Period

10
10

0 0

-10
-10
-20
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Percent Variation, by Seasonal Period Residuals, by Seasonal Period


10
12

5
8

0
4
-5
0
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

32
Component Analysis for RESI1
Additive Model
Original Data

10
Data

-10

-20
1 6 12 18 24 30 36 42 48 54 60
Index

Seasonally Adjusted Data


Seas. Adj. Data

10

0
-10

-20
1 6 12 18 24 30 36 42 48 54 60
Index

Interpretación de los resultados

La descomposición genera tres tipos de gráficas:

1. Una gráfica de serie de tiempo mostrando los datos originales con la línea de
tendencia ajustada, valores estimados y pronósticos
2. Un análisis de componentes con gráficas separadas para la serie, datos sin
tendencia, datos ajustados con estacionalidad y los datos ajustados
estacionalmente y sin tendencias (los residuos).
3. Un análisis estacional, mostrando los índices estacionales y la variación porcentual
dentro de cada estación respecto a la suma de la variación por estación y gráficas
de caja de los residuos por periodo estacional.

33
3.7 APLICACIONES

La aplicación de estos métodos tiene dos propósitos: comprender las fuerzas de influencia
en los datos y descubrir la estructura que produjo los datos observados. Ajustar el modelo
y proceder a realizar pronósticos, monitoreo, retroalimentación y control en avance.

Las aplicaciones incluyen pronósticos económicos, análisis de presupuesto, análisis del


mercado, etc.

34
CONCLUSIÓN

Las series de tiempo ayudan a describir, explicar, predecir y controlar aquellos procesos
que de alguna manera se presentan en el tiempo, si bien ay que recordar que la observación
se da de manera ordenada en el tiempo por lo que su aplicación se refleja de manera
concreta en diferentes áreas científicas y sociales ayudando a pronosticar eventos futuros
o a tomar decisiones importantes de diferentes tipos.

El análisis de series de tiempo según la tendencia es válido si es que no se dan otros


factores que puedan influenciar de manera significativa la tendencia de ocurrencia de los
datos, en nuestro caso un avance tecnológico inesperado podría alterar considerablemente
el comportamiento de la tendencia.

35
BIBIOLGRAFÍA

http://ciberconta.unizar.es/leccion/seriest/100.htm

http://personal.us.es/aggonzalez/Docencia/Problemas_Resueltos_2.pdf

https://www.google.com.mx/search?biw=1920&bih=925&q=tendencias+no+lineales+.doc&
oq=TENDENCIAS+NO&gs_l=psy-
ab.3.0.35i39k1j0l3.289740.291260.0.292164.13.10.0.0.0.0.252.1372.0j3j4.7.0.dummy_ma
ps_web_fallback...0...1.1.64.psy-ab..6.7.1371...0i67k1j0i131k1.0.98ycMaqw_tc

http://www.monografias.com/trabajos31/series-tiempo-internet/series-tiempo-
internet.shtml#Conclusiones

36

Вам также может понравиться