Вы находитесь на странице: 1из 74

ÍNDICE

Pag.

1 Bienvenida del Rector

3 Presentación

5 Bienvenida del Presidente del IASI

7 Programa Científico

16 Conferencias Invitadas

18 Cursos

19 Contribuciones Libres

58 Sesión Temática, Estadística e Industria


XXII FORO NACIONAL DE ESTADÍSTICA

Bienvenida del Rector

Tengo el placer de darles la Bienvenida al XXII Foro Nacional de Estadística de la Asociación Mexicana
de Estadística (AME) y al XI Seminario de Estadística Aplicada del Inter-American Statistical Institute
(IASI).

Nos llena de orgullo haber sido seleccionados para organizar estos eventos.

Desde su fundación en 1946, el ITAM ha considerado a la Estadística como una de las áreas más
importantes del conocimiento que requieren nuestros estudiantes en su vida profesional. A lo largo de
los años, el ITAM se ha convertido en una institución de prestigio internacional en la educación superior
gracias a su fuerte compromiso con la investigación científica y la creación de conocimiento. El año
pasado celebramos nuestro sesenta aniversario mirando hacia el futuro de nuestra institución.

Estoy seguro que su asistencia a las conferencias y cursos será de lo más productivo y les invito a que
aprovechen estos días para interactuar con sus colegas del resto del país y reconocidos investigadores
del extranjero.

Bienvenidos.

Arturo Fernández Pérez


Rector

Instituto Tecnológico Autónomo de México


XXII FORO NACIONAL DE ESTADÍSTICA


XXII FORO NACIONAL DE ESTADÍSTICA

Presentación

El Foro Nacional de Estadística se celebra por vigésima segunda ocasión. El evento anual
más importante que auspicia la Asociación Mexicana de Estadística (AME) alcanzó su
mayoría de edad y ahora transita por los primeros años de su edad adulta para,
seguramente, consolidarse en la madurez. Este año, el Foro se llevará a cabo
conjuntamente con el XI Seminario de Estadística Aplicada del Instituto Interamericano de
Estadística (IASI) en Jurica, Querétaro, y la institución que asumió la responsabilidad de
organizarlo fue el Instituto Tecnológico Autónomo de México. Esta tarea hubiese sido
imposible sin la colaboración de una variedad de instituciones que en distintas formas han
apoyado el proceso.

Durante los meses recientes los comités, organizador y de programa, se han ocupado de
los preparativos para que el XXII Foro cubra las expectativas de la comunidad que
tradicionalmente acude al evento y, en particular, han diseñado un programa científico
que si bien tiene como guía temática los tópicos de Estadística y Negocios por una parte y
Series de Tiempo, por otra, incluye casi setenta trabajos que reflejan el amplio abanico de
áreas en las que se desarrolla la actividad de investigación, consultoría y enseñanza de
los estadísticos en México.

Bioestadística, Estadística y Medio Ambiente, Análisis Multivariado, Estadística y Ciencias


Sociales, Muestreo e Inferencia Bayesiana son algunos de los temas que se habrán de
examinar, a través de las sesiones de contribuciones libres, en este Foro. El programa
incluye dos cursos cortos con los temas de Series de Tiempo en Finanzas y Modelos
Lineales Generalizados respectivamente. Además, se han programado seis conferencias
magistrales, cuatro invitadas por la AME y dos por el IASI. Se ha organizado una sesión
invitada sobre Estadística e Industria y una mesa redonda sobre Enseñanza de la
Estadística. El evento se cierra con una sesión especial organizada por la Asociación
Mexicana de Agencias de Investigación de Mercado y Opinión Pública (AMAI) en la que
se analizan distintas herramientas estadísticas de particular utilidad en la investigación de
mercados.

La mejor recompensa para todos los que hemos colaborado a fin de que este XXII Foro
tenga lugar, será que la asistencia sea muy abundante y cuando termine, quienes acudan
esperen con interés el siguiente Foro.

Por último, es oportuno recordar que el Foro nació hace casi un cuarto de siglo de una
iniciativa que concibió, diseñó y desarrolló durante dos años consecutivos, nuestro colega,
el Dr. Rubén Hernández Cid. Ha sido un placer colaborar en un Foro en el que, después
de 20 años, Rubén preside de nuevo el Comité Organizador Local.

En nombre del los Comités Organizador Local y de Programa,




Manuel Mendoza R.

XXII FORO NACIONAL DE ESTADÍSTICA


XXII FORO NACIONAL DE ESTADÍSTICA

Bienvenida del Presidente del IASI

Estimados participantes en esta reunión conjunta de Estadística, es para mí un


p r i v i l e g i o d a r l e s l a b i e n v e n i d a e n n o m b r e d e l I n s t i t u t o I n t e r- A m e r i c a n o d e
Estadística, que me honro en presidir.

Estoy convencido de que el programa científico de este evento conjunto “XXII


Foro Nacional de Estadística y XI Seminario de Estadística Aplicada” tiene la
calidad y la variedad suficientes para satisfacer las expectativas de la gran
mayoría de quienes participamos en él. Asimismo, soy de la idea de que el
ambiente que habrá de generarse entre colegas que compartimos intereses
comunes y en un sitio tan agradable como es la Hacienda Jurica, será muy
propicio para afianzar los lazos de amistad ya existentes y para crear otros
nuevos.

El trabajo realizado por los Comités de Programa, tanto del Foro como del
Seminario, son merecedores de mi más amplio reconocimiento por el esfuerzo
que realizaron y que es evidente en el programa propuesto. De igual manera, a
los Comités de Organización de este evento conjunto, tanto el nacional como el
local, les brindo mi agradecimiento por facilitar las cosas de manera tal que
parece fácil lo que en realidad implicó solucionar problemas de logística
r e l a t i v a m e n t e c o m p l i c a d o s . E l I n s t i t u t o Te c n o l ó g i c o A u t ó n o m o d e M é x i c o
( I TA M ) , l a U n i v e r s i d a d A u t ó n o m a d e Q u e r é t a r o , e l I n s t i t u t o N a c i o n a l d e
Estadística, Geografía e Informática (INEGI), el Centro de Investigación en
Matemáticas (CIMAT) y el Instituto de Investigación en Matemáticas Aplicadas
y Sistemas (IIMAS de la UNAM), así como las demás instituciones
participantes, son también merecedoras de mi aprecio por los auspicios que
brindaron para hacer posible esta reunión.

Aprovecho esta oportunidad para resaltar el programa de membresías


conjuntas que mantienen la Asociación Mexicana de Estadística y el Ins tituto
Inter-Americano de Estadística. Mediante este programa se pueden obtener los
beneficios completos de ambas organizaciones, con cuotas reducidas. Los
invito a que mantengan su apoyo al desarrollo estadístico nacional y regional,
mediante su inscripción a estas dos organizaciones y que, en particular, visiten
el sitio del IASI para enterarse de las actividades que se realizan en la región
americana (http://www.indec.ar/iasi).

Deseo que esta reunión sea provechosa y agradable para todos ustedes.

Víctor M. Guerrero
Presidente del IASI


XXII FORO NACIONAL DE ESTADÍSTICA


XXII FORO NACIONAL DE ESTADÍSTICA

Programa Científico

Miércoles 17 de Octubre

09:00 – 11:30 Registro

11:30 – 12:15 Ceremonia de Bienvenida

12:15 – 12:45 Conferencia Inaugural


Dr. Gilberto Calvillo Vives (Presidente del Instituto Nacional de Estadística,
Geografía e Informática, México)

12:45 – 12:50 Declaratoria Inaugural

13:00 – 14:00 Conferencia Invitada AME 1


Moderador: Enrique de Alba

Peter Rossi (Graduate School of Business. University of Chicago, EUA)


Bayesian statistics and marketing

14:00 – 14:30 Brindis de bienvenida

16:30 – 17:30 Conferencia Invitada IASI 1


Moderador: Evelio Fabbroni

Enrique de Alba (Instituto Tecnológico Autónomo de México y


University of Waterloo, Canadá)
Pronóstico Bayesiano de Series Cortas con Estacionalidad Estable

17:30 – 18:00 Café

18:00 – 20:00 Sesión de Carteles AME - IASI


Coordinador: Ernesto Barrios Z.

Jueves 18 de Octubre

08:30 – 10:30 Curso I

Pedro Morettin (Universidade de Sao Paulo, Brasil)


Series de Tiempo en Finanzas

__________
* Expositores

XXII FORO NACIONAL DE ESTADÍSTICA

08:30 – 10:30 Curso II

Geoffrey Vining (Virginia Polytechnic Institute and State University, EUA)


Modelos Lineales Generalizados

10:30 – 11:00 Café

11:00 – 13:00 Contribuciones Libres 1

Sesión 1.1.A. Inferencia General I


Moderador: Andrés Christen

11:00 – 11:20 Erdely, A.* y González-Barrios, J.M.


Una nueva prueba no paramétrica de independencia

11:20 – 11:40 González-Barrios, J.M. *, Erdely, A. y Nelsen, R.


Pruebas de simetría para cópulas

11:40 – 12:00 Guzmán, M.* y Castaño, E.


Ecuaciones diferenciales ordinarias en la modelación de datos funcionales

Sesión 1.2.A. Series de Tiempo I
Moderador: Víctor Guerrero

11:00 – 11:20 Ariza, F.J. * y Rodríguez, G.A.


Estimación del modelo de espacio de estados con observaciones
censuradas vía algoritmo EM

11:20 – 11:40 Gómez, N.


Pronósticos restringidos con modelos VAR: Una aplicación a las series
de circulación de billetes

11:40 – 12:00 Nieto, F.


Forecasting with univariate TAR models

Sesión 1.3.A. Estadística e Industria


Moderador: Luis Escobar

11:00 – 11:20 Aguilar, E.*, Barriguete, J. López, L. y Cortés, K.


Portafolio para una línea de producto de software usando el modelo
Kano y análisis de correspondencias

11:20 – 11:40 Garibay, C.*, Gutiérrez, H. y Figueroa, A.


Aplicación de QFD reforzada con el modelo de Kano para la
evaluación de la calidad de un proceso digital

XXII FORO NACIONAL DE ESTADÍSTICA

11:40 – 12:00 Nelson, W.


Un sistema mejor para volver a encargar artículos en almacén

Sesión 1.1.B. Estadística Economía y Finanzas


Moderador: Pedro Morettin

12:00 – 12:20 Fernández, J.J.* y Gregorio, M.


Análisis Bayesiano de distribuciones circulares basadas en sumas
trigonométricas. Una aplicación a efectos calendario en series
financieras

12:20 – 12:40 Escarela, G.


Modelado bivariado para frecuencias y severidades de indemnizaciones
en seguros de gastos médicos

12:40 – 13:00 Arauco, S.* y Alamilla, N.E.


Modelo para decisión empresarial de tipo binario para el caso del
grupo CEMEX

Sesión 1.2.B. Series de Tiempo II


Moderador: Estela Bee Dagum

12:00 – 12:20 Pérez, J.J. * y Ramírez, G.


Intervalos de predicción Bootsrap en series de tiempo utilizando
diferentes tipos de residuales

12:20 – 12:40 Silva, E.*, Guerrero, V. y Peña, D.


Combining multiple time series data for demographic analysis

12:40 – 13:00 Estrada, F.* y Gay, C.


Aplicación de modelos econométricos a series de tiempo climáticas

Sesión 1.3.B. Estadística y Ciencias Sociales
Moderador: Humberto Soto

12:00 – 12:20 Alegría, A.


Estadística y Redes Sociales

12:20 – 12:40 Hidalgo, R.* y Castaño, E.


Ajuste de un modelo logístico a datos de un examen de admisión a
licenciatura EXHCOBA


XXII FORO NACIONAL DE ESTADÍSTICA

12:40 – 13:00 Vences, J.


México: Incidencia de la Pobreza, 1971-2006. Estimaciones por el
Método de Componentes Principales

13:00 – 13:30 Café

13:30 – 14:30 Conferencia Invitada AME 2


Moderador: Manuel Mendoza R.

Fabrizio Ruggeri (Istituto di Matematica Applicata e Tecnologie


Informatiche, Italia)
Recent developments in Bayesian reliability

16:30 – 17:30 Conferencia Invitada IASI 2


Moderador: Fabio Nieto

Estela Bee Dagum (Universitá di Bologna, Italia)


Una visión probabilística unificada de predictores lineales de
tendencia-ciclo mediante “Reproducing Kernel Hilbert Spaces”

17:30 – 18:00 Café

18:00 – 19:00 Sesión de entrega del Premio IASI

18:00 – 19:00 Contribuciones Libres 2

Sesión 2.1.A. Inferencia Bayesiana


Moderador: Manuel Mendoza R.

18:00 – 18:20 Campirán, G. * y Gutiérrez-Peña, E.


¿Cómo utilizar el teorema de Bayes para encontrar la receta de pollo de
mi abuelita?

18:20 – 18:40 Gutiérrez-Peña, E.*, Rueda, R. y Contreras, A.


Procedimientos Bayesianos objetivos desde una perspectiva no
parámetrica

18:40 – 19:00 Pérez, S.


Estimación y criterio Bayesiano de referencia por medio de la pérdida
intrínseca ortogonal

Sesión 2.2.A. Inferencia General II


Moderador: Ignacio Méndez R.

10
XXII FORO NACIONAL DE ESTADÍSTICA

18:00 – 18:20 Jiménez, J.J. *, Castañeda, N. y Domínguez, J.


Una propuesta general de transformación a normalidad

18:20 – 18:40 Pérez, P.* y Villaseñor, J.


Comparación de poblaciones normales asimétricas
18:40 – 19:00 Sotres, D.* y Almendra, F.
Comparación de algunas pruebas estadísticas asintóticas de no
inferioridad para dos proporciones independientes

19:00 – 20:00 Herramientas para el análisis estadístico


Sesión especial de los patrocinadores

Viernes 19 de Octubre

08:30 – 10:30 Curso I

Pedro Morettin (Universidade de Sao Paulo, Brasil)


Series de Tiempo en Finanzas

08:30 – 10:30 Curso II

Geoffrey Vining (Virginia Polytechnic Institute and State University, EUA)


Modelos Lineales Generalizados

10:30 – 11:00 Café

11:00 – 13:00 Sesión Invitada de Estadística e Industria


Organizador: Víctor Aguirre T.

11:00 – 11:30 López, T.


Experimentación Estadística: Una herramienta útil para mejora de
productos. Dos aplicaciones en la industria en México

11:30 – 12:00 Gutiérrez, H.


Cartas de Control desde la Perspectiva Bayesiana

12:00 – 12:30 Pérez-Abreu, R.


Perspectivas de la Metodología Seis Sigma desde la Visión del CIMAT.

11
XXII FORO NACIONAL DE ESTADÍSTICA

12:30 – 13:00 Aguirre, V.


Algunos Problemas y Soluciones en el Análisis de Experimentos
Ajustados con Modelos Lineales Generalizados.

11:00 – 13:00 Contribuciones Libres 3

Sesión 3.1.A Bioestadística


Moderador: Ramsés Mena

11:00 – 11:20 Almendra, F. * y Sotres, D.


Una generalización de la condición de convexidad de de Barnard para
pruebas de no inferioridad

11:20 – 11:40 Trejo, B.


Medidas repetidas para datos con distribución bimodal y censura:
Aplicación en la evaluación de un programa social

11:40 – 12:00 Saavedra, V.*, Fernández, T., Castaño, E. y Castaño, V. M.


Análisis espectral aplicado al encefalograma

Sesión 3.1.B. Inferencia General III


Moderador: Rubén Hernández C.

12:00 – 12:20 Ortiz, A.* y Mendoza, M.


Análisis de verosimilitud para valores extremos

12:20 – 12:40 Rodríguez, J.L. *


Análisis comparativo de la teoría clásica de ajustes respecto a la
teoría de valores extremos en la distribución de máximos de ingresos

12:40 – 13:00 Hernández, A. *, Dupuy, J.F. y Escarela, G.


Modelo de decremento múltiple semiparamétrico para datos de
supervivencia

13:00 – 13:30 Café

13:30 – 14:30 Conferencia Invitada AME 3


Moderador: Víctor Aguirre T.

Geoffrey Vining (Virginia Polytechnic Institute and State University, EUA)


The Future of the Design and Analysis of Industrial Experiments

12
XXII FORO NACIONAL DE ESTADÍSTICA

16:30 – 17:30 Conferencia Invitada AME 4


Moderador: Eduardo Gutiérrez-Peña

Carmen Batanero (Universidad de Granada, España)


Investigación en educación estadística: Perspectiva y Direcciones.

17:30 – 18:00 Café

18:00 – 19:00 Mesa Redonda. Enseñanza de la Estadística


Moderador: Ernesto Sánchez

Carmen Batanero Bernabeu. Estadística en los nuevos currículos


escolares.

Rubén Hernández Cid. Enseñanza de la Estadística en el Postgrado


en Ciencias Sociales en México.

Sergio Hernández González. Enseñanza de la Estadística mediante


proyectos y utilizando software libre.

Manuel Mendoza Ramírez. Estadística en la Maestría en


Administración de Riesgos.

Ernesto Sánchez Sánchez. Investigación en educación estadística en


México.

18:00 – 20:00 Contribuciones Libres 4

Sesión 4.2.A. Muestreo y experimentos


Moderador: Pedro Silva

18:00 – 18:20 Godínez, F.* y Méndez, I.


Comparación en muestras complejas de varianzas estimadas de tres
estimadores de regresión del total

18:20 – 18:40 Rodríguez, E.


Métodos semiparamétricos en el análisis de encuestas: mejorando la
precisión de los estimadores

18:40 – 19:00 Montaño, A.*, Vez, A. y Ruiz, D.


Rentabilidad de los híbridos de jitomate bajo condiciones de
invernadero en la región de Coatepec

Sesión 4.3.A. Estadística y Medio Ambiente I


Moderador: Alberto Contreras
13
XXII FORO NACIONAL DE ESTADÍSTICA

18:00 – 18:20 Hernández, L:* y Escarela, G.


Modelado atmosférico para determinar niveles máximos diarios de
ozono en la Ciudad de Guadalajara

18:20 – 18:40 Linares, G.*, Valera, M.A., Castillo, M. y Tenorio, M.G.


Discriminación lineal y discriminación logí0stica en estudios de calidad
de suelos.

18:40 – 19:00 Linares. G.*, Saldaña, J.A. y Ruiz, L.G.


Regresión mínimo cuadrática parcial en el estudio de emisiones de
dióxido de carbono en suelos de Veracruz, México.

Sesión 4.1.B. Enseñanza y otras aplicaciones


Moderador: Luis Felipe González

19:00 – 19:20 Gómez, C.A.*, Hernández, S.


Utilización del software libre Kyplot para la enseñanza de la
Estadística

19:20 – 19:40 López, L.*, López, C., Claudio, R., Méndez, V.M. y Díaz, J.
Aprendizaje de la Estadística con base en opciones lúdicas: Proyecto
genios de la Estadística

19:40 – 20:00 Gómez, C.A.*, Montaño, A., Moncada, E. y Flores, P.I.


Evaluación sensorial y pruebas físicas a siete variedades de café
(Coffea arabica) en Coatepec, Veracruz

Sesión 4.2.B. Análisis Multivariado


Moderador: José María González-Barrios

19:00 – 19:20 Von Eye, A.


Distributional characteristics of convex clusters

19:20 – 19:40 González, E.* y Villaseñor, J.


Generalización de la prueba de Shapiro-Wilk para normalidad multiva
riada

19:40 – 20:00 Méndez, I. * y Lozano, D.


Conglomerados como alternativa a la multicolinealidad en regresión

Sesión 4.3.B. Estadística y Medio Ambiente II


Moderador: Francisco Estrada P.

19:00 – 19:20 Moreno, T.* y Escarela, G.


Análisis multivariado de extremos para evaluar los niveles de ozono

14 troposférico en la zona metropolitana de Guadalajara
XXII FORO NACIONAL DE ESTADÍSTICA

19:20 – 19:40 Rodríguez, J.L.


Contingencias ambientales y el pronóstico de contaminantes
atmosféricos

19:40 – 20:00 Ulin, F.* y Vaquera, H.


Procedimientos para el análisis de datos no detectados en
contaminación ambiental

20:00 – 21:30 Asamblea de la Asociación Mexicana de Estadística

Sábado 20 de Octubre

08:30 – 10:30 Curso I

Pedro Morettin (Universidade de Sao Paulo, Brasil)


Series de Tiempo en Finanzas

08:30 – 10:30 Curso II

Geoffrey Vining (Virginia Polytechnic Institute and State University, EUA)


Modelos Lineales Generalizados

10:30 – 11:00 Café

11:00 – 14:00 Sesión Conjunta AME - AMAI


Organizador : Eduardo Ragasol

Presentación: Rubén Hernández C.


Moderador: Edmundo Berumen

Javier Alagón
Regresión logística: una propuesta de solución a los problemas de
correlación en estudios de mercado

Roy Campos
El diseño muestral: pilar de la investigación

Manuel González
Modelos de atribución publicitaria, un enfoque Bayesiano

Leonardo Muedano
Segmentación: aplicación a un panel de hogares

14:00 – 14:30 Clausura


15
XXII FORO NACIONAL DE ESTADÍSTICA

Conferencias Invitadas

Bayesian Statistics and Marketing

Peter E. Rossi
Graduate School of Business, University of Chicago

Resumen I will review the progress of the application of Bayesian Methods to marketing problems.
Emphasis will be placed on large scale applications in which the number of parameters is potentially
very large. I will use our R package, bayesm, to illustrate some of these applications. I will conclude
with a discussion of the issue of simultaneity which I believe is an area with great research potential
and relevance for marketing.

Investigación en educación estadística: Perspectiva y direcciones

Carmen Batanero
Universidad de Granada, España

Resumen En las últimas décadas asistimos a un aumento notable de la investigación en educación


estadística, no sólo desde la didáctica de la matemática, sino en otras áreas, incluida la estadística
y algunos campos de la psicología. En esta conferencia resumiremos los avances recientes en edu-
cación estadística en estas tres áreas y describiremos algunos puntos preferentes que reclaman una
mayor atención por parte de los investigadores.

Recent Developments in Bayesian Reliability

Fabrizio Ruggeri
Istituto di Matematica Applicata e Tecnologie Informatiche, Italia

Resumen In the talk we illustrate methods and problems the author has considered in the last few
years. The motivating case studies are gas escapes in a city network, mechanical failures in subway
trains, possible introduction of new bugs during software testing and corrosion of cylinder liners in
ship Diesel engines. The entertained models are non homogeneous Poisson processes, self-exciting
processes, hidden Markov models and diffusions.

16
XXII FORO NACIONAL DE ESTADÍSTICA

Una visión probabilística unificada de predictores lineales de


tendencia-ciclo mediante Reproducing Kernel Hilbert Spaces

Estela Bee Dagum


Universitá di Bologna, Italia

Resumen El propósito principal de esta presentación es proporcionar un enfoque común para estudiar
diversos estimadores no-paramétricos usados en el contexto del análisis de series de tiempo, con
referencia especial a la estimación de la tendencia-ciclo de corto plazo. Los filtros lineales basados
en diferentes criterios de suavizado se transforman en funciones de núcleo mediante la teoría de
Reproducing Kernel Hilbert Spaces. Para cada estimador, se identifica una función de densidad o
núcleo de segundo orden y de ahí se deriva una jerarquía de estimadores de orden superior. Se de-
muestra que estos brindan excelentes representaciones para los filtros simétricos que se usan en la
actualidad. Las ponderaciones asimétricas se deducen al adaptar las funciones de núcleo a la longitud
de los diversos filtros, y se hace una comparación con los suavizadores clásicos usados en el análisis
de series de tiempo. Se demuestra que son superiores en términos del paso de señal, de la supresión
de ruido y de la velocidad de convergencia a sus filtros simétricos, en relación con los clásicos.

The Future of the Design and Analysis of Industrial Experiments

Geoffrey Vining
Virginia Polytechnic Institute and State University, EUA

Resumen This talk gives an overview of the current directions in the literature for the design and analysis
of industrial experiments. It discusses such areas as experiments under restricted randomization,
computer experiments, optimal versus classical experimental designs, experimental designs for
reliability, and experimental designs for financial transactions. This talk seeks to give the perspective
of both the needs of the practitioner and the interests of the researcher.

Pronóstico Bayesiano de series cortas con estacionalidad estable

Enrique de Alba
Instituto Tecnológico Autónomo de México y University of Waterloo, Canadá

Resumen Se hará una breve descripción y reseña del tema de pronóstico en series de tiempo cortas
con periodicidad estable, señalando las principales contribuciones en la literatura. Posteriormente
se abordará el problema mediante el uso de un modelo Bayesiano. La variable que se desea
pronosticar es el total o valor acumulado de una variable continua y positiva para la cual se cuenta
con observaciones para acumulaciones parciales. Estas condiciones se presentan de manera natural
en muchas situaciones reales. Se describirá un modelo sencillo que relaciona las acumulaciones
parciales y el total de la variable de interés, y para la que se desea obtener los pronósticos. Se
mostrará cómo obtener tanto estimaciones puntuales como intervalos de probabilidad. Se presentan
aplicaciones del modelo a diversos ejemplos, muy particularmente al cálculo de reservas en seguros;
y se comparan los resultados con métodos tradicionales existentes en esta área.

17
XXII FORO NACIONAL DE ESTADÍSTICA

Cursos

Análisis de series de tiempo en finanzas

Pedro Morettin
Universidade de S o Paulo, Brasil

En este curso se hará énfasis en la presentación de modelos para el análisis de series de tiempo
financieras; básicamente para rendimientos de activos financieros. Las familias ARMA, ARCH-GARCH
y SVM (de volatilidad estocástica) se presentarán con aplicaciones a series de tiempo reales, en
particular para el cálculo del VaR (valor en riesgo). Es la intención presentar también material sobre
modelos multivariados (básicamente modelos VAR), co-integración y procesos de memoria larga.

Contenido:

1. Preliminares sobre rendimientos.


2. Modelos lineales: AR, MA, ARMA, ARIMA.
3. Modelos heteroscedásticos: ARCH, GARCH, SVM.
4. Valor en Riesgo.
5. Modelos multivariados (especialmente VAR).
6. Procesos cointegrados.
7. Procesos de memoria larga.

An Introduction to Generalized Linear Models

Geoffrey Vining
Virginia Polytechnic Institute and State University, EUA

Generalized Linear Models (GLM) is an important analysis tool for data well modeled by a large number
of families of distributions. Specifically, GLM uses maximum likelihood estimation for any member
of the exponential family of distributions. Ordinary least squares estimation for normally distributed
data, logistic regression for binomial data, and Poisson regression are all special cases of GLM. This
course assumes some basic familiarity with ordinary least squares estimation. It starts with a review of
multiple linear regression analysis. It then provides an introduction to logistic regression, emphasizing
the use of maximum likelihood estimation. The course next discusses Poisson regression. It then
generalizes maximum likelihood estimation to any member of the exponential family, with particular
emphasis on the gamma distribution, which is often important for reliability data. The course discusses
such issues as residual analysis within GLM, choice of link function, and overdispersion. Examples
illustrate each methodology. The course uses both MINITAB and SAS’s PROC GENMOD.

18
XXII FORO NACIONAL DE ESTADÍSTICA

Contribuciones Libres

Portafolio para una línea de producto de software usando el


modelo Kano y análisis de correspondencia

Aguilar Parra, Esmeralda*; Barriguete, José Luis; López Lozada, Lorena;


Cortés Verdín, Karen

Resumen En Líneas de Producto de Ingeniería de Software (SPLE, por sus siglas en inglés) se procura
capitalizar el reuso fijando un esquema para la planeación, desarrollo y administración de activos
básicos. La administración del producto es ’Planeación, organización, ejecución, y control de todas
las tareas, que apuntan a una concepción, producción y mercadotecnia de todos los productos que
ofrece una compañía’. Para SPLE, la definición de productos exige una gran importancia puesto que
tal definición pone los fundamentos para el reuso. El Modelo de Kano proporciona un esquema para
definir productos que satisfagan altamente al cliente. Sin embargo, el modelo carece de principios
y elementos estadísticos, pues este modelo se basa en cuatro pasos que son: 1) Identificación de
los requerimientos, 2) Elaboración del cuestionario, 3) Levantamiento de la encuesta, 4) Captura y
análisis de la información; se dice que carece de principios y elementos estadísticos pues no men-
ciona como llevar a cabo la encuesta y como debe de analizarse los datos es por eso que se realizó
un análisis de correspondencia en el cual se elaboraron tablas de contingencia con frecuencias y
porcentajes utilizando el estadístico c2 con la prueba de Pearson y máxima verosimilitud, utilizando
pruebas de hipótesis planteadas de la siguiente manera: H0 : Todos los porcentajes son iguales H1:
Al menos un porcentaje es diferente. Se determinó la relación que hay entre las características de
los encuestados y los requerimientos de esta línea de productos de software y así ver cuáles requeri-
mientos son considerados como básicos, satisfactorios, fascinantes, indiferentes o no deseados. Por
ello, con la participación de estudiantes de Consultoría Estadística se obtuvo un proceso completo
para el uso del Modelo Kano. Aquí, se presenta el uso del Modelo Kano para la definición de un
portafolio de línea de producto de software.

Contacto:
Esmeralda Aguilar Parra, Facultad de Estadística e Informática, Universidad Veracruzana,
shanit 87@hotmail.com

19
XXII FORO NACIONAL DE ESTADÍSTICA

Desarrollo de una software para el análisis estadístico Bayesiano.

Alamilla López, Norma Edith*; Hernández Solano, Alan Martín

Resumen La estadística es una disciplina que en los últimos años ha tenido una gran injerencia tanto
en los diversos campos de la ciencia como en la vida real. En particular, la estadística clásica ha sido
una de las herramientas más utilizadas en el estudio de los fenómenos aleatorios. Sin embargo, a
través del tiempo se han encontrado algunas inconsistencias en esta teoría. La estadística Bayesiana
se ha presentado como una alternativa a la estadística clásica, para la solución de los problemas
típicos estadísticos como son: la estimación, el contraste de hipótesis y la predicción. Esta teoría ha
generado un enorme interés en los últimos años y ha tenido una gran aceptación en muchas de las
áreas de la investigación científica. En la literatura en español no se ha encontrado o se ha encontrado
poco, acerca de la existencia de un software que facilite el cálculo de la inferencia Bayesiana. En
este trabajo se plantea el desarrollo de una software el cual permite hacer el cálculo de estimación,
contraste de hipótesis, y predicción, considerando el enfoque Bayesiano.

Contacto:
Alan Martín Hernández Solano, Instituto de Física y Matemáticas, Universidad Tecnológica de la
Mixteca,
alan20mhs@hotmail.com

Muestreo de aceptación multivariado en la industria del calzado

Alcaraz Valverde, Francisco Javier*; Maruri Aguilar, Hugo

Resumen Los planes de muestreo por variables utilizan valores continuos de una característica de
calidad, que son usados para determinar sobre la calidad de un lote. Una extensión multivariada de
dichos planes permite aprovechar información que en otras circunstancias sería desaprovechada. El
presente póster contiene una aplicación de dicha tecnología en la evaluación de lotes de piel en el
proceso de fabricación del calzado. Las respuestas usadas son las mediciones de las pruebas de ten-
sión-elongación, que se consideran como realizaciones de una distribución normal multivariada. En el
póster se presentan ejemplos que muestran las ventajas de este enfoque. Adicionalmente se comenta
sobre posibles alternativas cuando el supuesto de normalidad multivariada no es adecuado.

Contacto:
Hugo Maruri-Aguilar, Statistics, London School of Economics,
H.Maruri-Aguilar@lse.ac.uk

20
XXII FORO NACIONAL DE ESTADÍSTICA

Estadística y redes sociales

Alegría, Alejandro*

Resumen La búsqueda de modelos que permitan entender el funcionamiento de las relaciones que
se presentan entre los diferentes elementos que componen una red es un problema importante
en diferentes áreas del conocimiento: relaciones personales (en el trabajo, en la familia, en una
comunidad), salud (dispersión de una enfermedad), comunicación (difusión de información), entre
otras. En este trabajo se presentan algunos de los métodos estadísticos que usualmente se aplican
para modelar redes sociales, así como algunas propuestas para modelar la dinámica de las redes y
simular el comportamiento de las mismas.

Contacto:
Alejandro Alegría, UMIE, FLACSO,
alealeher@hotmail.com

Una generalización de la condición de convexidad de


Barnard para pruebas de no-inferioridad

Almendra Arao, Félix*; Sotres Ramos, David

Resumen Las pruebas estadísticas de no-inferioridad se utilizan muy frecuentemente en Ensayos


Clínicos. Estas pruebas sirven para demostrar que una terapia nueva (con mínimos efectos secundarios
o bajo costo) no es sustancialmente inferior en eficacia a la terapia estándar. Para pruebas exactas
de no-inferioridad, Rohmel y Mansmann probaron que si la región de rechazo cumple la condición
:

de convexidad de Barnard, entonces el nivel de significancia en vez de calcularse como el supremo


en todo el espacio nulo puede calcularse como el máximo en una parte de la frontera del espacio
nulo. Esto tiene particular importancia debido al extenso tiempo de cómputo requerido para calcular
niveles de significancia para pruebas de no-inferioridad. En este trabajo se generaliza el teorema
demostrado por Rohmel y Mansmann en dos direcciones, en primer lugar se extiende el resultado
para pruebas estadísticas en general (incluyendo pruebas exactas y asintóticas), en segundo lugar se
relaja la condición de convexidad de Barnard a una condición menos restrictiva. El resultado incluye
hipótesis de no-inferioridad para parámetros como la diferencia, la razón y la razón de momios. Este
resultado permite calcular los niveles de significancia para pruebas como la de Black-Welder y la de
Hauck-Anderson obteniendo el máximo en una parte de la frontera con una reducción sustancial del
tiempo de cómputo. Por ejemplo para la prueba de Hauck-Anderson tomando como parámetro de
interés a la diferencia de proporciones y como límite de no-inferioridad a 0.1, el tiempo de cómputo
se reduce aproximadamente al 1% del tiempo original.

Contacto:
Félix Almendra Arao, Departamento de Ciencias Básicas, UPIITA del Instituto Politécnico Nacional,
falmendra@ipn.mx

21
XXII FORO NACIONAL DE ESTADÍSTICA

Modelo de decisión empresarial de tipo binario para el caso del grupo CEMEX

Arauco Camargo, Sigfredo*; Alamilla López, Norma Edith

Resumen En este trabajo se desarrolla un modelo de respuesta cualitativa en la variable endógena,


cuyo objetivo es calcular la probabilidad de que un hecho financiero suceda; la empresa se enfrenta
a un proceso de decisión entre dos alternativas denominadas 0 y 1, para 0 no se tendría liquidez
y para 1 se tendría liquidez, entonces se tomaría una decisión operativa adecuada. Lo anterior se
determina a partir de un ratio financiero denominado prueba del ácido. Se examinan tres métodos
para desarrollar este modelo de probabilidad para una variable de respuesta binaria: modelo lineal
de probabilidad (MLP), modelo logit y el modelo probit. Los resultados indican que el modelo lineal
de probabilidad no es capaz de dar una respuesta adecuada a los procesos de decisión dicotómica.
Por esta razón, se sugiere un planteamiento no lineal de los modelos de elección dicotómica que,
sin duda, soluciona algunos de los problemas asociados al MLP.

Contacto:
Norma Edith Alamilla López, Instituto de Física y Matemáticas, Universidad Tecnológica de la Mixteca,
edith@mixteco.utm.mx

Estimación del modelo de espacio de estados con


observaciones censuradas vía algoritmo EM

Ariza Hernández, Francisco Julián*; Rodríguez Yam, Gabriel A.

Resumen Los modelos de espacios de estados son una clase flexible de modelos que permiten
analizar series de tiempo que aparecen en muchas disciplinas. Frecuentemente en la medición de
contaminantes a lo largo de un periodo de tiempo se tienen observaciones que mantienen un cierto
grado de dependencia y que además presentan ciertas irregularidades en los datos, tales como la
censura debido a que el rango de medición se encuentra restringido. En esta plática se usará el
Algoritmo EM para estimar los parámetros de un modelo lineal gaussiano de espacio de estados con
observaciones censuradas por la izquierda. Se presenta un ejemplo de aplicación.

Contacto:
Francisco Julián Ariza Hernández, Estadística, Colegio de Postgraduados,
arizahfj@colpos.mx

22
XXII FORO NACIONAL DE ESTADÍSTICA

Intervalos de estimación bootstrap para cuantiles en teoría de valores extremos

Bolívar Cimé, Addy Margarita*; Díaz-Frances Murguía, Eloísa; Ortega Sánchez, Joaquín

Resumen En la Teoría de Valores Extremos es muy importante hacer inferencias acerca de los cuantiles
de distribuciones de máximos por bloques debido a que algunas veces contribuye a solucionar pro-
blemas para la protección civil. La estimación por intervalo usual para cuantiles de distribuciones de
máximos se basa en la propiedad de asintoticidad normal de los Estimadores de Máxima Verosimilitud
(EMV) o incluso en intervalos de verosimilitud perfil para cuantiles. Para que estos intervalos resulten
recomendables se requiere que la muestra de los máximos sea al menos moderadamente grande.
Sin embargo, muchas veces se tiene un número de máximos pequeño, en este caso los intervalos
de estimación mencionados anteriormente pueden presentar dificultades en su cálculo o no cubrir
al verdadero valor del cuantil. Para evitar los problemas anteriores se podría pensar en construir
intervalos de estimación no paramétricos para cuantiles. El Bootstrap es una metodología estadística
que se puede utilizar para construir intervalos de estimación no paramétricos para cuantiles. Se ha
visto que los intervalos Bootstrap convencionales para cuantiles de distribuciones asintóticas de
máximos o de distribuciones en general no proporcionan buenos resultados en cuanto a coberturas.
Sin embargo, recientemente Ho y Lee (2005) propusieron una clase de intervalos Bootstrap para
cuantiles de distribuciones en general con buenos resultados en cuanto a coberturas. Ellos no in-
vestigaron el comportamiento de estos intervalos para cuantiles de las distribuciones asintóticas de
máximos y esto es lo que se exploró en el presente trabajo. Aquí se comparó mediante simulaciones
cómo se comportan los intervalos propuestos por Ho y Lee con respecto a los intervalos de estimación
usuales para cuantiles de distribuciones asintóticas de máximos. Principalmente se compararon las
coberturas y anchos de dichos intervalos para los cuantiles Q0,95 y Q0,99 de distribuciones asintó-
ticas de máximos considerando muestras pequeñas, moderadamente grandes y grandes (25, 50 y
100 datos, respectivamente). Entre los resultados de este trabajo se tiene la comparación de los
diversos intervalos para cuantiles de distribuciones de máximos así como las situaciones de mayor
utilidad para el uso de cada uno de ellos. Cabe señalar que se observó que los intervalos Bootstrap
propuestos por Ho y Lee son de mayor utilidad con muestras pequeñas de máximos y en situaciones
donde los otros intervalos tenían las coberturas más bajas, aunque estos intervalos Bootstrap gene-
ralmente fueron más anchos que los otros intervalos bajo estudio. Se vió también que los intervalos
Bootstrap mejoraban sus coberturas mucho más rápido que los otros intervalos cuando el tamaño de
las muestras de máximos aumentaba.

Contacto:
Addy Margarita Bolívar Cimé, Probabilidad y Estadística, CIMAT A.C.,
addy@cimat.mx

23
XXII FORO NACIONAL DE ESTADÍSTICA

¿Cómo utilizar el teorema de Bayes para encontrar la receta


de pollo de mi abuelita?

Campirán García, Guadalupe Eunice*; Gutiérrez Peña, Eduardo

Resumen Todos hemos tenido que buscar en internet información específica, ya sea para la elaboración
de una tesis, para resolver un problema en específico, sobre una enfermedad etc. Esta búsqueda puede
consumir varios días y resultar altamente tediosa. ¿Qué hay de las imágenes? Si deseamos encontrar
una imagen que incluya una figura en específico, tendremos que hacer una revisión extensa. En esta
plática, se expondrán modelos paramétricos y no paramétricos de Estadística Bayesiana para poder
clasificar grandes cantidades de información. También se expondrán algoritmos determinísticos,
llamados métodos variacionales, para la estimación de la densidad a posteriori.

Contacto:
Guadalupe Eunice Campirán García, Probabilidad y Estadística, IIMAS,
eunice_campiran@hotmail.com

Inferencia en procesos Gaussianos usando un MCMC


autoajustable (t-walk)

Christen, J. Andrés*

Resumen Los procesos Gaussianos se usan en muchas áreas y tienen hoy en día una gran diver-
sidad de aplicaciones, que incluyen estadística espacial, series de tiempo, análisis de modelos
computacionalmente intensivos, etc. Un problema recurrente en la inferencia Bayesiana sobre los
parámetros de un proceso Gaussiano usando MCMC es la alta correlación y la verosimilitud plana
de los parámetros de la función de correlación. Normalmente las distribuciones de propuesta tienen
que ser calibradas con mucho cuidado y en general el MCMC resultante es muy difícil de poner a
punto para que se simule razonablemente bien de la distribución posterior en cuestión. Christen y
Fox (2007, sometido) presentan un MCMC autoajustable (llamado t-walk) que, siendo un algoritmo
de Metropolis-Hastings en el espacio producto de la distribución original, presenta propiedades de
adaptabilidad para obtener eficientemente muestras de la distribución objetivo en cuestión aún para
distribuciones altamente correlacionadas, multimodales, con secciones planas, etc. Presentaremos
varios ejemplos de como el t-walk puede resolver problemas en la inferencia de procesos Gaussianos,
usando diferentes funciones de correlación, a través de varias escalas y tamaños de muestra.

Contacto:
J. Andrés Christen, Probabilidad y Estadística, CIMAT,
jac@cimat.mx

24
XXII FORO NACIONAL DE ESTADÍSTICA

Una prueba no paramétrica para simetría

Contreras, Alberto*; González, José María

Resumen El tratamiento de tablas de contingencia de Fisher puede extenderse usando las ideas de
Freeman y Halton (1951). Usando esa extensión, este trabajo plantea una prueba no paramétrica
para simetría de vectores aleatorios. La prueba se puede modificar para verificar el supuesto de
intercambiabilidad así como el de independencia.

Contacto:
Alberto Contreras, Probabilidad y Estadística, IIMAS-UNAM,
alberto@sigma.iimas.unam.mx

Optimización de un proceso de inyección usando plásticos reciclados

Domínguez Domínguez, Jorge*; Lozano Durán, Alberto

Resumen En el presente trabajo se muestra el procedimiento de optimización multi-respuesta consi-


derando: dos características de calidad y el costo en un proceso de inyección para la producción de
plásticos reciclados. Mediante un diseño de experimentos, se obtuvieron diferentes composiciones
de tres ingredientes: compactado, paletizado y cargas para determinar la mezcla que permita obtener
el óptimo común en la fluidez, contracción y costo en este proceso. En este caso se mantuvieron
fijos los factores del proceso y no se consideró el ruido. Los beneficios e impactos directos de este
estudio consisten en aumentar el porcentaje de capacidad instalada y reducir el porcentaje de de-
fectos. En la industria de la recuperación de plásticos, es de vital importancia la formulación de las
mezclas que van a ser sometidas al proceso de inyección, además este tipo de procesos exige cierto
tipo de condiciones aptas para lograr con éxito el aprovechamiento de los polímeros reciclados. El
proceso de interés consiste en fabricar cubetas de plástico a partir de material reciclado, mediante
un proceso de inyección. Dicha cubeta es para usos múltiples en la industria por lo que cuenta
con un asa metálica y una tapa de cierre hermético. Dentro de las consideraciones importantes se
tiene que por ser un producto altamente comercial se requiere: 1. Un costo competitivo así como
excelente funcionalidad y calidad general del producto, 2. Para economizar el proceso de fabrica-
ción, la pieza cuenta con espesores diseñados para generar una pieza ligera (poca materia prima)
pero con excelente desempeño en su aplicación. Esto implica que al inyectar el polímero reciclado
al molde, dicho polímero debe ser capaz de llegar a todos los rincones del molde para lograr una
pieza conforme. Para ello se requiere un nivel de fluidez adecuado para cumplir con el objetivo 3.
Debido a que el producto requiere un ensamble opcional que en este caso es la tapa hermética, la
cual en conjunto con el bote en sí deben contar con dimensiones críticas para la funcionalidad y
confiabilidad del sello hermético.

Contacto:
Jorge Domínguez Domínguez, Probabilidad y Estadística, Centro de Investigación en Matemáticas,
jorge@cimat.mx

25
XXII FORO NACIONAL DE ESTADÍSTICA

Una nueva prueba no paramétrica de independencia

Erdely, Arturo*; González-Barrios, José María

Resumen En 1959, Abe Sklar demostró que existe una relación funcional única entre la distribución
conjunta de un vector aleatorio de variables aleatorias continuas (X1, . . . ,Xn) y sus marginales,
mediante funciones C : [0, 1]n -> [0, 1] que denominó cópulas. Esto es, si H es la distribución
conjunta del vector aleatorio y F1, . . . , Fn sus marginales entonces existe una cópula C tal que
H = C(F1, . . . , Fn). Este resultado ha ampliado considerablemente el catálogo de distribuciones
multivariadas, gracias a distintas familias paramétricas de cópulas, y a la posibilidad de eligir las
marginales que se deseen. Una clase importante de cópulas son las del tipo arquimediano, que se
construyen vía una función univariada o generador j de modo que la cópula se obtiene mediante
C(u1, . . . , un) = j−1(Sn k=1 j(uk)). En 1996, Maurice J. Frank demostró, bajo ciertas condiciones,
que toda la información sobre las cópulas arquimedianas está contenida en su diagonal d(u) = C(u,
. . . , u) como consecuencia de la solución convexa de la ecuación funcional de Schroder (1871).
Este resultado es relevante a la hora de estimar empíricamente una cópula arquimediana puesto que
resulta mucho más fácil estimar empíricamente su diagonal que su generador. Expondremos una
consecuencia estadística importante de lo anterior: Alsina, Frank y Schweizer (2003) publicaron una
serie de problemas abiertos entre los que se encontraba el de construir una prueba no paramétrica
de independencia haciendo uso del Teorema de Frank. Este problema ya fue resuelto por Erdely y
González Barrios (2006b).

Contacto:
Arturo Erdely Ruiz, Escuela de Actuaría, Universidad Anáhuac México Norte,
aerdely@anahuac.mx

Modelado bivariado para frecuencias y severidades de


indemnizaciones en seguros de gastos médicos

Escarela, Gabriel*

Resumen Los datos bivariados de indemnizaciones provienen de una población que consiste dease-
gurados que pueden ser indemnizados por uno o dos tipos de beneficios cubiertos por una póliza.
En este trabajo se desarrolla un procedimiento estadístico para ajustar distribuciones de indemni-
zaciones bivariadas en presencia de variables explicativas. Esta metodología basada en verosimilitud
permite un estudio preciso sobre el tipo y el monto en la frecuencia y severidad de los dos tipos
de indemnizaciones. Se emplea un modelo logístico generalizado para examinar las probabilidades
de frecuencia, mientras que se propone una distribución de cola larga para modelar la distribución
marginal de la severidad de cada tipo de indemnización. Además, se explota el modelo de cópula para
construir la distribución conjunta de las severidades cuyas marginales tienden a estar relacionadas
ya que se tiene la hipótesis de que indemnizaciones -sobretodo altas - de un tipo de beneficio están
altamente relacionadas con indemnizaciones del otro beneficio. Se sugiere una metodología para
escoger la formulación paramétrica conjunta más adecuada y se propone un método para evaluar la

26
XXII FORO NACIONAL DE ESTADÍSTICA

bondad de ajuste de las marginales y de la distribución bivariada. Los métodos expuestos se ilustran
con el análisis de unos datos de indemnizaciones de gastos médicos observados por una aseguradora
canadiense; aquí las respuestas de interés son: gastos médicos (e.g. consultas, tratamientos, etc) y
otros (e.g. prótesis, gastos adicionales, etc.), y las variables explicativas son: edad y el factor género.
En el modelado de estos datos se hace uso de la regresión polinomial para edad en los parámetros
de las formas paramétricas; para escoger tanto el grado adecuado del polinomio como el modelo más
parsimonioso se muestra el uso del criterio BIC.

Contacto:
Gabriel Escarela, Depto de Matemáticas, UAM-Iztapalapa,
ge@xanum.uam.mx

Aplicación de modelos econométricos a series de tiempo climáticas

Estrada Porrúa, Francisco*; Gay García, Carlos

Resumen En los últimos años, el análisis de series de tiempo de las temperaturas globales y hemis-
féricas ha generado un intenso debate contrastando dos tipos de procesos generadores de datos: raíz
unitaria y estacionariedad alrededor de una tendencia. Este trabajo aborda esta discusión utilizando
pruebas de raíces unitarias con cambio estructural para las temperaturas globales y hemisféricas y
la extiende proponiendo modelos econométricos no lineales del tipo GARCH y SETAR para el índice
Multivariado de El Niño/Oscilación del Sur. Los resultados muestran que, si bien en todas las series
analizadas se pueden distinguir tendencias y/o cambios estructurales en la media del proceso, su
varianza incondicional ha permanecido constante. Eso es, si cambio climático ya está ocurriendo,
se ha manifestado como un cambio en la media de estos procesos y no ha afectado otros momen-
tos de sus distribuciones. Adicionalmente, se cuestiona la aplicación de técnicas de cointegración
utilizadas para atribuir cambio climático a la actividad humana. Por otra parte, se muestra que en
series climáticas de frecuencia mensual o diaria, se observa que las varianzas condicionales de los
procesos no son constantes y que se presentan clusters de volatilidad similares a los que ocurren
en series financieras. Posteriormente, se muestra que cuando la serie del índice Multivariado de El
Niño/Oscilación del Sur rebasa un valor umbral, el proceso tiene una mayor memoria y persistencia.
En conclusión, los modelos de series de tiempo proveen información relevante para la toma de deci-
siones y permiten obtener mejores estimaciones del riesgo actual y futuro cuando son utilizados en
combinación con salidas de modelos físicos de clima.

Contacto:
Francisco Estrada Porrúa, Grupo de Cambio Climático y Radiación, Centro de Ciencias de la Atmós-
fera, Universidad Nacional Autónoma de México,
feporrua@atmosfera.unam.mx

27
XXII FORO NACIONAL DE ESTADÍSTICA

Estimadores Jackknife de las varianzas de los estimadores


de totales en el muestreo por seguimiento de nominaciones

Félix Medina, Martín*; Monjardin, Pedro

Resumen En este trabajo se proponen estimadores Jackknife de las varianzas de los estimadores de
totales poblacionales que se usan en las variantes del muestreo por seguimiento de nominaciones
(MSN) planteadas por Félix-Medina y Thompson (2004) y Félix-Medina y Monjardin (2004). En el
MSN la metodología Jackknife ordinaria requiere de ajustes especiales ya que en este tipo de mues-
treo la omisión de un elemento muestreado conduce a la omisión de todos los elementos nominados
únicamente por este elemento. En particular, para la construcción de los estimadores propuestos se
usa un ajuste similar al empleado por Frank y Snijders (1994). Mediante un estudio de simulación
se observan los desempeños de los estimadores propuestos y se comparan contra los desempeños
de estimadores bootstrap y estimadores delta. Los resultados indican que en general los estimadores
Jackknife son los de desempeños más bajos, pero en algunas situaciones sus resultados son com-
parables a los obtenidos por los estimadores bootstrap.

Contacto:
Martín Félix Medina, Escuela de Ciencias Físico-Matemáticas, Universidad Autónoma de Sinaloa,
mhfelix@uas.uasnet.mx

Análisis Bayesiano de distribuciones circulares basadas en sumas trigonométricas


no negativas: Una aplicación a efectos calendario en series financieras

Fernández Durán, Juan José*; Gregorio Domínguez, María Mercedes

Resumen Fernández-Durán (2004) desarrolló una nueva familia de distribuciones circulares ba-
sadas en sumas trigonométricas no negativas que permiten modelar conjuntos de datos circulares
que presentan varias modas y/o asimetría. En el presente trabajo se explica la forma en la cual es
posible llevar a cabo inferencia acerca de los parámetros de la distribución desde un punto de vista
Bayesiano a través de algoritmos MCMC transdimensionales. La metodología propuesta se ejemplifica
con la identificación de efectos calendario en series de tiempo financieras.

Contacto:
Juan José Fernández Durán, Estadística, ITAM,
jfdez@itam.mx

28
XXII FORO NACIONAL DE ESTADÍSTICA

Inducción de respuestas bióticas en la interacción mirmecofílica Acacia cornigera y dos


especies simpátricas de hormigas Pseudomyrmex en una selva baja
caducifolia del centro de Veracruz.

Galván Martínez, Rosario*; Sánchez Galván, Ingrid Rosario; López Acosta, Juan Carlos

Resumen El objetivo del presente trabajo es contrastar el comportamiento defensivo de dos especies
de hormigas del género Pseudomyrmex que colonizan plantas de A. cornigera en una zona de Selva
Baja Caducifolia en Dos Ríos, Veracruz. A nivel experimental se inducieron potenciales señales quí-
micas que tuvieron efecto sobre el patrullaje de las hormigas, para ello se diseñaron tratamientos que
intentaron extraer o desencadenar dichas sustancias, cada uno de estos fue aplicado conjuntamente
con su control en un diseño pareado. Para este tipo de variable (tiempo de llegada de la 1ra hormi-
ga) estamos utilizando el modelo de Kaplan Maier para comparar las muestras con la prueba F de
Cox. Se encontró diferencias significativas para el tiempo de respuesta de las hormigas P. ferruginae
a los tratamientos en relación a sus controles. También utilizamos la t de Student para comparar
periodos de actividad de las hormigas (No. promedio de hormigas). P. ferruginae tuvo una diferencia
significativa respondiendo a los tratamientos en relación a sus controles respecto a P. gracilis. Para
manejar los datos hicimos uso del paquete SSPS 8.0 para Windows, presentamos curvas de sobre-
vivencia y tablas comparativas.

Contacto:
Ingrid Rosario Sánchez Galván, Facultad de Biología, Universidad Veracruzana,
ingra_sg@hotmail.com

Aplicación de QFD reforzada con el modelo de Kano para la


evaluación de la calidad de un proceso digital

Garibay López, Cecilia*; Gutiérrez Pulido, Humberto; Figueroa Montaño, Arturo

Resumen El despliegue de la función de calidad (Quality Function Deployment, QFD) es una he-
rramienta de planeación que introduce la voz del cliente en el desarrollo y diseño del producto o el
proceso. A pesar de que QFD no es una herramienta nueva, sigue siendo plenamente vigente en la
literatura de calidad y planeación: mediante una búsqueda en el Citation Index de ISI Web of Scien-
cie se encontraron 50 artículos científicos cuyo título incluye la palabra QFD entre los años 2000
y 2006, y más de 150 que lo incluye como tópico. En estos artículos se presentan principalmente
aplicaciones específicas de QFD y mejoras a esta metodología. Por otro lado el modelo de Kano es
un concepto que ayuda a categorizar los atributos de calidad de un producto o servicio de acuerdo
al efecto que tienen sobre la satisfacción del cliente. En este trabajo se ve cómo reforzar la metodo-
logía QFD con el modelo de Kano, y se ve cómo estas dos herramientas hacen una buena sinergia
tanto para entender mejor las necesidades del cliente como para integrar la calidad deseada con la
calidad percibida por el cliente. Todo esto permite un mejor despliegue de la calidad y con ello una
mejor elección de las acciones a ejecutar para mejorar un proceso. La aplicación de la metodología
QFD-Kano se ilustra mediante un caso estudio donde se evalúa la calidad de la biblioteca digital
de la Universidad de Guadalajara (México). Para recabar la voz del cliente se diseñó y se aplicó un

29
XXII FORO NACIONAL DE ESTADÍSTICA

cuestionario que contempla tanto criterios de calidad de un servicio como aspectos específicos que
se deben considerar en una biblioteca digital. Además se realizaron entrevistas semiestructuradas
con personal que trabaja en la biblioteca digital y con usuarios importantes. Esta información se usó
como base para aplicar la metodología QFD-Kano.

Contacto:
Cecilia Garibay López, Matemáticas, Universidad de Guadalajara,
garibay70@yahoo.com

Análisis longitudinal de la marginación en México


(1990-2005)

Geyne, Frida*; Hernández, Rubén

Resumen El Consejo Nacional de Población (CONAPO) publica de manera periódica un índice de


marginación en diferentes niveles de agregación de la población mexicana (localidades, municipios
y entidades federativas). Un reto importante es el de comparar estadísticamente, e interpretar, los
cambios de dicho índice a lo largo del tiempo. En este trabajo se presenta una comparación del índice
de Marginación basada en el método STATIS para los años 1990, 1995, 2000 y 2005 utilizando
los recursos de MATLAB. STATIS es una metodología desarrollada por Christine Lavit en 1986 que
permite analizar matrices de datos cuantitativos, basado en el Análisis de componentes principales.
Los objetivos principales de esta técnica son: determinar las características en común de las matrices
analizadas; construir un arreglo resumen y describir las diferencias entre los arreglos, determinando
si se deben a los individuos o a las variables. Esto es, la idea esencial es encontrar una estructura
común entre las matrices de datos (la intraestructura) así como describir la relación que existe entre
los arreglos (la interestructura).

Contacto:
Rubén Hernández, Estadística, ITAM,
hernande@itam.mx

30
XXII FORO NACIONAL DE ESTADÍSTICA

Comparación en muestras complejas de varianzas estimadas


de tres estimadores de regresión del total

Godínez Jaimes, Flaviano*; Méndez Ramírez, Ignacio

Resumen Los estimadores de regresión permiten mejorar la estimación de un total poblacional


cuando se cumplen dos condiciones: que la variable de interés esté asociada con una o más varia-
bles auxiliares mediante un modelo de regresión lineal y que los valores de las variables auxiliares
sean conocidos en toda la población. Existen al menos dos enfoques que fundamentan este tipo de
estimadores: el asistido por modelo y el basado en modelo. Estos enfoques usan el mismo modelo
para motivar el estimador pero difieren en cuanto al uso del modelo y en cuanto a la distribución
utilizada para evaluar las propiedades de los estimadores. En este trabajo se hace una comparación
empírica de los estimadores de regresión del total y de sus varianzas estimadas a partir de muestras
complejas, en particular bajo los esquemas A y B de Raj. La evaluación se hace mediante simulación
y considerando como criterios: el error cuadrático medio relativo, sesgo relativo y cubrimiento.

Contacto:
Flaviano Godinez Jaimes, Estadística, Universidad de Guerrero,
fgodinezj@gmail.com

Pronósticos restringidos con modelos VAR: una aplicación a


las series de circulación de billetes

Gómez, Nicolás*

Resumen La metodología de pronósticos restringido en el marco de la metodología VAR es útil cuando


se dispone de información adicional a futuro que puede ser incorporada en forma de una restricción
lineal. Este trabajo presenta una aplicación de ésta metodología a las series de circulación de billetes
en México cuando dichas series están sujetas a una restricción contemporánea sin incertidumbre.

Contacto:
Nicolás Gómez, Dirección de Emisión, Banco de México,
ngomez@banxico.org.mx

Utilización del software libre Kyplot para la enseñanza de la estadística

Gómez Grajales, Carlos Alberto*; Hernández González, Sergio

Resumen Las actuales líneas en el nuevo Espacio Europeo de Enseñanza Superior, establecen la
necesidad de un cambio en el sistema actual de enseñanza en el sentido de que hay que dar más
protagonismo a la capacidad y posibilidades de autoaprendizaje del alumno frente a la clásica
clase magistral. En esta línea existen numerosos estudios en aras a buscar metodologías docentes
para favorecer este autoaprendizaje. Una de estas metodologías es la conocida como trabajo con
proyectos. Ahora bien, si los alumnos aprenden la estadística por medio de proyectos se consiguen
muchos aspectos positivos: 1.- Les permitirá contextualizarla y hacerla más relevante, 2.- Reforzarán
31
XXII FORO NACIONAL DE ESTADÍSTICA

el interés, dado que el alumno es el que elige el tema. El alumno quiere resolver su problema, no
el inventado e impuesto por el profesor, 3.- Se promoverá el trabajo autónomo y el autoaprendizaje
del alumno, 4.- Aprenderán mejor qué son los datos reales, y se introducirán ideas que no aparecen
con los datos inventados: precisión, variabilidad, fiabilidad, posibilidad de medición, sesgo, etc.,
5.- Se les mostrará que la estadística no se reduce a contenidos matemáticos, 6.- El aprendizaje será
eficaz y estimulante y 7.- Mostrarán la relación entre distintas materias del currículo, fomentando la
interdisciplinaridad. Por supuesto que los alumnos deben de usar la computadora para llevar a cabo
sus proyectos, tanto para el análisis de datos con un software estadístico o con una hoja de cálculo,
como para elaborar sus informes con un procesador de texto. Pero en particular el software estadístico
comercial es costoso, es por eso importante en pensar en la utilización de software libre. Se presenta
en este trabajo el software libre denominado KYPLOT Ver. 2.0 beta 13. Desarrollado en el lenguaje
Visual Basic por Koichi Yoshioka del Instituto Qualest. Funciona a través de una hoja de cálculo muy
similar a las construidas con Excel. Entre las funciones que incluye están: manipulación de matrices,
graficación de funciones, aplicaciones de optimización lineal, opciones de análisis estadístico (muy
completo) y cálculo de integrales. Produce gráficos de alta calidad.

Contacto:
Sergio Hernández González, Facultad de Estadística e Informática, Universidad Veracruzana,
s_her_gon@yahoo.es

Evaluación sensorial y pruebas físicas a siete variedades de


café (Coffea arabica) en Coatepec, Veracruz

Gómez Grajales, Carlos Alberto*; Montano Rivas, Julia Aurora; Moncada Martínez,
Eduardo; Flores Pérez, Pedro Iván

Resumen En el mundo, la calidad de cualquier café (Coffea arabica L.), se sustenta en la interacción
entre su genética, el ambiente físico y el manejo agronómico de la finca. Estos tres factores son
fundamentales, pues la calidad del grano de café se gesta durante los nueve meses que transcurren
desde que brotan las yemas vegetativas, y hasta que el cortador arranca de la mata el café en cereza.
A partir de ese momento los seis procesos subsiguientes, tienen por finalidad conservar la calidad
original para que ésta se aprecie en la taza, transformada en bouquet, acidez y cuerpo, atributos
que conjugan el sabor (1). Para que el productor mejore su ingreso debe ofrecer al mercado un café
de alta calidad notablemente diferenciado. Este trabajo califica -cuantitativa y cualitativamente los
atributos predominantes de cada tratamiento, para que con esta herramienta el productor busque
acceder a mercados de especialidad.

Contacto:
Julia Aurora Montano Rivas, Facultad de Estadística, Universidad Veracruzana,
julmontano@uv.mx

32
XXII FORO NACIONAL DE ESTADÍSTICA

Pruebas de simetría para cópulas.

González Barrios Murguía, José María*; Erdely Ruíz, Arturo; Nelsen, Roger

Resumen En este trabajo se analizan algunas pruebas de simetría para cópulas, a partir de la cópula
empírica. Se hace una comparación con otras pruebas conocidas y se incluyen algunas ideas para
probar la arquimedeanidad de una cópula.

Contacto:
José María González Barrios Murguía, Probabilidad y Estadística, IIMAS UNAM,
gonzaba@sigma.iimas.unam.mx

Elección del tamaño de los intervalos para construir histogramas

González De León, Claudia*; Guerrero Guzmán, Víctor

Resumen Cuando se desea realizar el análisis estadístico de un conjunto de datos, resulta de suma
importancia encontrar la distribución subyacente de los mismos. Para ello existen diversos tipos de
gráficos que pueden resultar de utilidad, dentro de ellos, el gráfico descriptivo conocido como histo-
grama sobresale por su sencillez y facilidad de realización. Se cree que los histogramas tienen sus
orígenes en el siglo XVII, en relación con los trabajos realizados por Graunt. Sin embargo, fue hasta
1926 que Sturges propuso el primer método para realizar el cálculo del número de intervalos que
deben emplearse para realizar dicho gráfico. A partir de las investigaciones realizadas por Sturges, se
han propuesto diferentes métodos alternativos para la construcción de los histogramas, siempre cui-
dando la rapidez y la sencillez que debe caracterizar el uso de esta herramienta. Sin embargo, a la
fecha no se ha llegado a un consenso acerca de cuál método es el más apropiado, o bien, para decidir
en qué casos se debe utilizar un cierto método. Incluso, los histogramas generalmente se hacen con
paquetes computacionales, los cuales no mencionan de manera explícita el método que utilizan para
construir el gráfico. El objetivo del presente trabajo es dar a conocer los distintos métodos que se han
desarrollado para decidir el número y tamaño de los intervalos, así como realizar una comparación
gráfica y numérica que permita distinguir las ventajas y desventajas que presenta cada método.

Contacto:
Claudia González De León, Actuaría, ITAM,
cgonzalezd@banamex.com

33
XXII FORO NACIONAL DE ESTADÍSTICA

Una generalización de la prueba de Shapiro-Wilk para


normalidad multivariada

González Estrada, Elizabeth*; Villaseñor Alva, José A.

Resumen Se presenta una prueba de bondad de ajuste para la distribución normal multivariada. La
estadística de prueba es el promedio de las estadísticas de Shapiro-Wilk evaluadas en las coordenadas
de la matriz de observaciones estandarizadas empíricamente. Los valores críticos se obtienen usando
una transformación de la distribución normal estándar univariada. Un estudio de simulación muestra
que esta prueba resulta ser más potente que las mejores pruebas para normalidad multivariada contra
una amplia variedad de alternativas.

Contacto:
Elizabeth González Estrada, Estadística, Colegio de Postgraduados,
eliza_ge@yahoo.com.mx

Análisis funcional del perfil de las olas

Gorrostieta, Cristina*; Ortega, Joaquín

Resumen Las olas oceánicas han sido tema de estudio de matemáticos, físicos e ingenieros durante
mucho tiempo, sin embargo debido a su complejidad aún quedan muchos aspectos por investigar
sobre ellas. Uno de los mayores intereses se presenta en las olas de tormenta en mar abierto, donde
surge el planteamiento de la siguiente pregunta, ¿Cómo es la forma de este tipo de olas y de qué
manera varían en un periodo de tiempo?. Es alrededor de esta pregunta sobre la que se desarrolla
el tema de la presentación. Una manera de cuantificar el grado de alteración de las olas en un
periodo de tiempo es a través de la altura significativa, así, al dividir la duración de una tormenta
en periodos de tiempo, la altura significativa de los periodos proporciona información sobre la evo-
lución y la variación en el grado de intensidad de las olas durante la tormenta. En consecuencia,
la altura significativa juega un papel muy importante en la forma de las olas, por lo que uno de los
intereses principales es explorar de qué manera está relacionada la forma de las olas en un periodo
de tiempo con la altura significativa de ese periodo. El enfoque tradicional del estudio de olas es
mediante el análisis de la serie que representa la altura de la ola al tiempo t en un punto fijo, vista
como un proceso aleatorio. Algunas de las propiedades comúnmente estudiadas de este proceso, se
refieren a las frecuencias de la serie, su densidad espectral y estimación de distribuciones asocia-
das a características de las olas que la integran como: amplitud, periodo, valle, cresta, intensidad
de cruzado entre otras. Sin embargo no se tiene información de estudios realizados sobre tipos de
variación en la forma de las olas y su comparación con altura significativa. Aunque usualmente se
analiza la serie como un proceso aleatorio, en este caso, debido a que se tiene interés en la forma de
las olas, se requiere otro enfoque que proporcione ventajas al estudio sobre este aspecto. La teoría
de datos funcionales facilita herramientas que son de utilidad en el estudio de forma y variabilidad
de funciones, de manera que al representar el perfil de las olas como funciones, esta teoría resulta
de gran utilidad en el análisis de los datos para el objetivo propuesto. Concretamente, dada la serie
correspondiente a alturas de olas de tormenta, se presenta un análisis estadístico de la forma de
las olas que la definen tratadas como funciones. Durante el desarrollo de este análisis se plantean
34
XXII FORO NACIONAL DE ESTADÍSTICA

relaciones de interés entre la forma de las olas y características típicas asociadas a la serie de las
alturas, como son altura significativa, el comportamiento sinusoidal y supuestos de normalidad del
proceso aleatorio. Los datos utilizados en el análisis, fueron proporcionados por George H. Smith de
la Universidad de Exeter Inglaterra y corresponden a mediciones realizadas durante una tormenta
en la plataforma Alwyn en el Mar del Norte.

Contacto:
Cristina Gorrostieta, Estadística, CIMAT,
cristina@cimat.mx

Procedimientos Bayesianos objetivos desde una perspectiva no paramétrica.

Gutiérrez, Eduardo*; Rueda, Raúl; Contreras, Alberto

Resumen En este trabajo se explora el uso de un enfoque propuesto recientemente por Gutiérrez-
Peña y Walker (2005) en la construcción de procedimientos Bayesianos objetivos para el problema
de selección de modelos. La idea consiste en ver los procedimientos paramétricos tradicionales como
problemas de decisión en los que la incertidumbre se modela de manera no paramétrica.

Contacto:
Eduardo Gutiérrez Peña, Probabilidad y Estadística, IIMAS, UNAM,
eduardo@sigma.iimas.unam.mx

Ecuaciones diferenciales ordinarias en la modelación de datos funcionales

Guzmán, María*; Castaño, Eduardo

Resumen Dependiendo de la teoría del contexto de aplicación, un fenómeno en el tiempo, denotado


por x(t), puede sugerirse que satisfaga idealmente las condiciones expresadas por un operador lineal
j
diferencial Lx(t) = SbjD (t)+Dmx(t) donde j = 0, . . . ,m−1, Lx(t) = f. En estudios estadísticos, se cuenta
con xi(t), i = 1, . . . ,K, datos funcionales (ruidosos) del fenómeno, que no satisfaciendo de manera
exacta tales condiciones, se torna importante estimar los coeficientes involucrados, resultando los
siguientes operadores estimados Lxi(t) = SbjDjxi(t) + Dmxi(t) donde j = 0, . . . ,m − 1, Lxi(t) = fi, i = 1,
. . . ,K con posibilidades de obtener información adicional a partir de fi vistasya sea como funciones
forzantes o como residuales funcionales. Esta tarea de estimación se le ha denominado Análisis Prin-
cipal Diferencial PDA (Ramsay, 1996). En nuestro estudio presentamos los elementos conceptuales
para realizar PDA así como dos ejemplos de aplicación: usando datos del índice Económico Global
de México (1993-2005), y otro ejemplo proveniente de un experimento comparativo.

Contacto:
María Guzmán Martínez, Matemáticas, UAQ,
marnezmar@yahoo.com.mx

35
XXII FORO NACIONAL DE ESTADÍSTICA

Transformación potencia de Yeo-Johnson aplicada a modelos de difusión

Hernández, Hugo*; Castañeda, Netzahualcóyotl

Resumen Los procesos de precios de activos con riesgo, como las acciones de empresas, los precios
del oro, el precio del petróleo o el precio de la energía, son generalmente modelados a través de
procesos estocásticos a tiempo continuo; los modelos mayormente empleados son el Movimiento
Browniano geométrico y el modelo de Black and Scholes, o bien generalizaciones de los mismos.
En el caso de los precios de energía, se deben considerarse modelos reversibles a la media, como
es el caso del proceso Ornstein-Uhlenbeck, entre otros. El modelar precios de energía eléctrica es
el objetivo del presente trabajo, los cuales poseen características que los diferencian de otro tipo de
bienes y/o servicios. Por ejemplo, en mercados en donde los precios no están regulados, se aprecia
una tendencia a permanecer estables alrededor de cierto valor, pero con una gran volatilidad causada
probablemente por factores económicos u otros factores externos; también se observa una volatilidad
en los precios que se ve reflejada en saltos repentinos a la alza (precios pico), volviendo a estabilizarse
hacia un valor promedio. De esta manera, para modelar precios de energía es necesario considerar
dos factores importantes: modelar precios pico en un proceso que además sea reversible a la media.
Para tal fin, se utiliza la transformación potencia de Yeo-Johnson (2001) aplicada a un proceso
Ornstein-Uhlenbeck (O-U), mediante la primera se modelan los precios pico y mediante la segunda
se consigue la reversión a la media. A partir de dichas transformaciones, se obtiene la función de
verosimilitud, asumiendo el proceso O-U autoregresivo de orden uno, con tiempos de observación
equidistantes, teniendo como parámetros de interés los tres parámetros del modelo autoregresivo, la
variable que representa el exponente de la función de Yeo-Johnson (se le denomina alfa) y el parámetro
del proceso O-U que representa la capacidad de reversión a la media (se le denomina lambda). Para
estimar dichos parámetros, primeramente se supone alfa fijo y se obtienen los estimadores máximo
verosímiles para los tres parámetros del modelo autoregresivo; posteriormente, ya contando con los
estimadores anteriores, se construye la función de logverosimilitud perfil de alfa, sobre la cual se
obtiene el estimador de máxima verosimilitud para alfa, empleando para ello un método numérico. El
valor de lambda queda determinado a partir de los estimadores del modelo autoregresivo. Para probar
la calidad de las estimaciones se han realizado una gran cantidad de simulaciones tomando como
valores de los parámetros, las estimaciones obtenidas al aplicar el modelo a datos reales obtenidos
del mercado de Atlanta, Canadá y que incluyen precios de cada hora del 1 de enero del 2000 al 16
de noviembre de 2005. El trabajo no se concluye aún, se siguen realizando pruebas al modelo, pues
para precios de ciertas horas del día, no se obtienen buenos resultados. Finalmente, se establecerán
comparaciones con el modelo que Barlow presentó en 2002 usando una transformación Box-Cox.

Contacto:
Hugo Hernández, Estadística, Universidad Autónoma de Aguascalientes,
hugo.hernandez@inegi.gob.mx

36
XXII FORO NACIONAL DE ESTADÍSTICA

Modelado atmosférico para determinar niveles máximos de ozono en la ciudad de Guadalajara

Hernández Gallardo, Lorelie*; Escarela Pérez, Gabriel

Resumen La exposición de seres humanos y otros entes vivos a niveles altos de contaminación es
un grave problema de salud que persiste sobre todo en grandes áreas urbanas. Según la Organiza-
ción Mundial de la Salud (WHO, 1987) niveles de ozono mayores a 100mg/m3 es causa de riesgo
para la salud. Por otro lado, se sabe que si un individuo respira en ambientes con concentraciones
mayores o iguales a 80mg/m3 de gas ozono hay una reducción en su funcionamiento pulmonar; por
consiguiente, exposiciones repetidas a estos niveles altos de ozono causan daño permanente a los
pulmones. La variación de contaminantes corresponde a varias razones, entre las mas importantes
se pueden mencionar los cambios anuales de condiciones meteorológicas y el incremento de las
diversas fuentes contaminantes. En particular, temperaturas altas junto con bajas velocidades de
viento están asociadas con observaciones altas de ozono. El propósito de este proyecto es el de pro-
poner una metodología para predecir niveles máximos diarios de ozono en presencia de la historia
la cual incluye variables atmosféricas, de tiempo y de los mismos máximos registrados. Se expone
cómo la teoría del valor extremo es un esquema conveniente para hacerlas predicciones de un nivel
peligroso a la salud al construir un modelo autorregresivo de un orden dado. Los métodos se ilustran
con el análisis de los máximos diarios de ozono registrados en el área metropolitana de Guadalajara
en el periodo 1997-2004. Aquí, la variable respuesta es el máximo diario de ozono de cada una
de las ocho estaciones de monitoreo en Guadalajara, y las variables explicativas son velocidad del
viento, dirección del viento, temperatura, humedad relativa, periodicidad y tendencia en el tiempo
y máximos pasados.

Contacto:
Lorelie Hernández Gallardo, Matemáticas, UAM-I,
heilerol@yahoo.com.mx

Modelo de decremento múltiple semi-paramétrico para datos de supervivencia

Hernández Quintero, Angélica*; Dupuy, Jean-Francois; Escarela Pérez, Gabriel

Resumen Actualmente el modelado y ajuste de datos de decremento múltiple se presentan en un


gran número de disciplinas tales como investigación clínica y en la ciencia actuarial. Aquí el interés
se centra en analizar duraciones de tiempo de ciertos eventos, comenzando por un tiempo origen
establecido y terminando con la ocurrencia del evento el cual es clasificado en varias causas. En
muchas situaciones prácticas, los datos se presentan con información concomitante de la cual se
cree que depende la ocurrencia de los eventos. Por ejemplo, cuando una empresa contrata seguros
de vida para sus trabajadores, los montos de las indemnizaciones varían de acuerdo a la causa de
muerte del trabajador; generalmente una muerte relacionada con las condiciones laborales tiende
a ser más cuantiosa que alguna de otro tipo, por lo que es imperativo estimar las probabilidades
asociadas a cada una de las causas en presencia de variables auxiliares importantes, tales como
edad y género, para así calcular las primas adecuadas. Existen diferentes razones por las cuales los
datos de decremento múltiple no pueden ser estudiados con los métodos estadísticos estándares.
En primer lugar, se observa que los datos de supervivencia tienden a ser datos de cola larga por la
37
XXII FORO NACIONAL DE ESTADÍSTICA

derecha del intervalo que contiene la mayoría de las observaciones, así como también éstos están
censurados, pues la ocurrencia de una causa no permite observar la ocurrencia de otra; además,
es común encontrar que el tiempo de ocurrencia del evento de interés no ha sido observado al fi-
nal del seguimiento de las unidades experimentales en la muestra. En este trabajo se describe un
modelo semi-paramétrico de mezclas que es capaz de acomodar las variables explicativas en las
probabilidades de ocurrencia de cada uno de los tipos de riesgo. Se presenta una generalización del
modelo de Larson y Dinse (1985), el cual consiste en modelar las probabilidades de ocurrencia de
las causas y las funciones de supervivencia condicionales para cada causa en forma separada. Se
muestra que las funciones de supervivencia condicionales pueden tener cada una la forma flexible
del modelo de riesgos proporcionales de Cox. El interés principal de este estudio es el de mostrar que
los estimadores obtenidos convergen en ley a un proceso gaussiano centrado. Se aborda primero la
existencia de los estimadores semi-paramétricos para el modelo conjunto. Posteriormente, se obtiene
una caracterización de éstos aplicando la función de verosimilitud conjunta obtenida del algoritmo
EM y por último se muestra la consistencia de éstos.

Contacto:
Angélica Hernández Quintero, Departamento de Matemáticas, UAM-Iztapalapa,
angyka302@gmail.com

Análisis estadístico de la corrosión de vigas de concreto reforzado con diferentes espesores


de recubrimiento mediante técnicas no Paramétricas.

Hervert Zamora, Haidie Lissette*; Nieves Mendoza, Demetrio; Nava Vera,


Carmen Zenia; Barrientos Cisneros, Julio César

Resumen Por medio de herramientas y técnicas estadísticas se ha hecho posible describir el comportamiento
que guardan algunos fenómenos naturales, sin embargo dada la complejidad en la recolección y el diseño de
experimentos, en algunos de los fenómenos es imposible tener muestras homogéneas y totalmente aleatorias
de datos, las cuales permitan aplicar las técnicas estadísticas paramétricas más comunes. Para realizar el
análisis de muestras que no siguen un comportamiento con una distribución conocida se hace uso de técnicas
no paramétricas. El presente trabajo muestra los resultados obtenidos de aplicar algunas técnicas estadísticas
no paramétricas, como es el caso de la técnica de análisis de diferencias de medianas de Mood, para el
análisis del comportamiento de la velocidad de corrosión en vigas de concreto reforzado expuestas al medio
ambiente. El objetivo es determinar estadísticamente qué factor es el que acelera la velocidad de corrosión
de las vigas bajo estudio. Los resultados muestran que las condiciones de prueba empleadas (tres diferentes
recubrimientos: 10, 15 y 30 cm., dos relaciones agua / cemento, a/c: 0.45 y 0.65 y dos lados de medición,
expuesta y resguardada a los vientos predominantes), durante el tiempo de estudio son estadísticamente
significativas en el comportamiento de la velocidad de corrosión. Presentándose velocidades de corrosión
más altas en los recubrimientos de 10 y 15 cm. principalmente con una relación a/c de 0.65. Sin embargo,
se encontró que la velocidad de corrosión en las caras expuestas de las vigas a los vientos predominantes no
es estadísticamente diferente a la presentada en las caras resguardadas de las mismas.

Contacto:
Haidie Lissette Hervert Zamora, Facultad de Ingeniería ’Arturo Narro Siller’, Universidad Autónoma
de Tamaulipas,
hhervert@gmail.com
38
XXII FORO NACIONAL DE ESTADÍSTICA

Ajuste de un modelo logístico a datos del examen de admisión a licenciatura EXHCOBA

Hidalgo Flores, Rocío*; Castaño Tostado, Eduardo

Resumen Los modelos logísticos son muy utilizados dentro de la Teoría de Respuesta al ítem, (TRI).
Estos modelos permiten estimar el nivel de un rasgo latente determinado del examinado en función de
las características de los ítems que componen el examen y de las respuestas que el examinado da a los
ítems. En el contexto de tal teoría se analiza, a partir de un conjunto de datos resultado de una aplicación
en el año 2006, un subconjunto de ítems de Matemáticas para el Cálculo, del Examen de Habilidades y
Conocimientos Básicos (EXHCOBA), examen utilizado como criterio de ingreso a nivel licenciatura en la
Universidad Autónoma de Querétaro, en particular para carreras en el área de ciencias básicas, ingenierías
y matemáticas. Se exploran los modelos logísticos de uno y dos parámetros. También se evalúa el cumpli-
miento del supuesto de unidimensionalidad, independencia local y monotonicidad, requeridos en la TRI y
la bondad de ajuste del modelo.

Contacto:
Eduardo Castaño, Fca Química Posgrado, Universidad Autónoma de Querétaro,
ecastano@uaq.mx

Una propuesta general de transformación a normalidad

Jiménez Martínez, José de Jesús*; Castañeda Leyva, Netzahualcóyotl;


Domínguez Molina, Jesús Armando

Resumen En el análisis estadístico, una gran cantidad de resultados importantes se fundamentan en el


supuesto de que los datos investigados provienen de una población con distribución normal. Cuando no
se cumple el supuesto, se han propuesto transformaciones a los datos con el fin de que éstos tengan
una distribución aproximadamente normal (Yeo y Johnson 2000). Tal vez la técnica más conocida y
empleada sea la transformación Box-Cox (Box-Cox, 1964), que además de aproximar a la normalidad
(Hernández y Johnson 1980), también proporciona buenos resultados cuando lo que se busca es la
estabilización de la varianza entre variables explicativas y la variable respuesta en los modelos de
regresión lineal múltiple. (Bickel y Doksum 1981). Sin embargo la familia de transformaciones de Box
y Cox adolece de ciertas reestricciones no deseadas. Por ejemplo, no aplica para variables aleatorias
con valores no positivos. También su imagen está acotada (inferior o superiormente) de manera que
en la búsqueda de normalidad no resulte ser la más adecuada. En el presente trabajo se propone una
familia de transformaciones potencia de tres parámetros como una alternativa para la aproximación
a normalidad. Entre las características de esta función se encuentran: a) Transforma en potencias
diferentes a los valores positivos y negativos. b) Preserva las propiedades de suavidad con respecto a
la variable de interés y los parámetros. c) Incluye otras familias de transformaciones potencia como la
transformación Box-Cox, la transformación John-Draper, la transformación Yeo-Johnson, entre otras. Se
presentarán los resultados de la aplicación de esta transformación para normalizar distribuciones de
probabilidad sesgadas de algunos casos particulares de la densidad loggama, lognormal, skewnormal
y la función valor extremo (Gumbel). Para validar la calidad del modelo con respecto a su utilidad
como una herramienta para transformar datos sesgados pertenecientes a una distribución empírica,

39
XXII FORO NACIONAL DE ESTADÍSTICA

a una distribución aproximada a la normalidad, se presentan los resultados obtenidos a través de


simulaciones de los parámetros para diferentes situaciones y tamaños de muestra.

Contacto:
José de Jesús Jiménez Martínez, Estadística, Universidad Autónoma de Aguascalientes,
jimj710418@yahoo.com.mx

Asociación entre la fracción plasmática del plomo en la sangre y el historial de


abortos espontáneos en un grupo de mujeres de la Ciudad de México

Lamadrid Figueroa, Héctor*; Trejo Valdivia, Belem

Resumen La fracción plasmática de plomo representa la fracción toxicológicamente activa del plomo
circulante, la cual puede atravesar la barrera feto-placentaria. A pesar de que existe evidencia de
que el plomo en sangre se asocia con una elevación del riesgo de aborto espontáneo, los resultados
publicados hasta el momento no son concluyentes. Es posible que esto se deba a que hay diferen-
cias en la susceptibilidad al efecto tóxico del plomo que es inherente al individuo. Las mujeres con
tendencia a tener una mayor fracción plasmática de plomo en sangre podrían tener un riesgo elevado
de abortar debido a una mayor proporción de plomo que puede transmitirse al feto o embrión, lo
que se reflejaría en un historial de abortos espontáneos. Preguntamos a 207 mujeres embarazadas
residentes en la Ciudad de México, quienes cursaban el 1er trimestre de embarazo, sobre su historial
de abortos espontáneos. El plomo se midió en plasma y en sangre total. La tasa de incidencia de
abortos espontáneos se definió como la proporción de embarazos previos que resultaron en aborto,
excluyendo a aquellas mujeres que no hubieran tenido embarazos previos. Los datos se analizaron
por medio de modelos de regresión de Poisson con la tasa de incidencia de abortos como la variable
resultado y la razón plomo en plasma/plomo en sangre tanto continua como categorizada en terciles
como variables predictoras. La bondad de ajuste incluye la verificación de Poissonabilidad, y no sólo
la sobredispersión. No rechazamos la distribución Poisson utilizando los resultados de dos proce-
dimientos basados en la razón varianza/media y uno más basado en las propiedades de la función
generadora de probabilidad. Se obtuvo un buen ajuste de acuerdo al diagnóstico estadístico de los
resultados de ambos modelos. Estimamos que un incremento de 0.1% en la razón entre el plomo en
plasma y el plomo en sangre total (PbP/PbS) se asoció con una incidencia de abortos espontáneos
12% mayor. Asimismo, las mujeres en el tercil superior de la razón PbP/PbS presentaron una inci-
dencia de abortos dos veces mayor que aquellas en el tercil más bajo. Concluimos que las mujeres
con una razón PbP/PbS elevada podrían estar en mayor riesgo de sufrir abortos espontáneos, lo que
podría deberse a una mayor disponibilidad de Pb que cruce libremente la barrera placentaria.

Contacto:
Héctor Lamadrid Figueroa, Centro de Investigación en Evaluación y Encuestas, Instituto Nacional
de Salud Pública,
hlamadrid@insp.mx

40
XXII FORO NACIONAL DE ESTADÍSTICA

Discriminación lineal y discriminación logística en estudios


de calidad de suelos

Linares Fleites, Gladys*; Valera Pérez, Miguel ángel; Castillo Morales, Maribel;
Tenorio Arvide, María Guadalupe

Resumen Desarrollar criterios de calidad de suelos que puedan utilizarse en una evaluación objetiva de
riesgos ambientales es actualmente un reto, pero también lo es buscar procedimientos de clasificación
eficaces. En este trabajo se han analizado suelos de origen volcánico procedentes de la Sierra Nor-
oriental del estado de Puebla, México. Los tres problemas relacionados a la calidad de estos suelos
son: (1) Contenidos de materia orgánica y residuos, (2) La reacción pH del suelo, y (3) La fertilidad
natural del suelo. El objetivo es identificar las propiedades del suelo que permitan distinguir entre
suelos con Calidad Inherente (suelos con vegetación forestal) y suelos con Calidad Dinámica (suelos
de agricultura temporal). Se obtuvieron funciones discriminantes lineales y modelos logísticos para
cada uno de los tres problemas y se discuten las ventaja y desventajas de ambos procedimientos de
discriminación en estos estudios de calidad de suelos.

Contacto:
Gladys Linares Fleites, DICA-ICUAP, Benemérita Universidad de Puebla,
gladys.linares@icbuap.buap

Regresión mínimo cuadrática parcial en el estudio de


emisiones de dióxido de carbono en suelos de Veracruz, México

Linares Fleites, Gladys*; Saldaña Munive, José Adrián; Ruiz Suárez, Luis G.

Resumen La Regresión Mínimo Cuadrática Parcial es una de las extensiones menos restrictivas del
modelo de Regresión Lineal Múltiple. Su flexibilidad permite utilizarla en situaciones donde existen
pocas observaciones y puede ser una herramienta de análisis exploratorio muy útil para seleccionar
variables predictoras convenientes. En el trabajo se utiliza esta herramienta con el propósito de estu-
diar asociaciones entre las emisiones de dióxido de carbono (CO2) y diversas propiedades de suelos
perturbados en el Parque Ecológico Jaguaroundi en Coatzacoalcos, Veracruz, México. Se obtienen
dos modelos, uno para la época de lluvia, con 24 muestras de suelo y 16 propiedades y otro, para
la época de seca, con igual número de muestras y 17 propiedades. En ambos modelos se destaca,
entre otros aspectos, que el porciento de nitrógeno total del suelo tiene fuerte influencia sobre la
variable respuesta (emisiones de CO2).

Contacto:
Gladys Linares Fleites, DICA-ICUAP, Benemérita Universidad Autónoma de Puebla,
gladys.linares@icbuap.buap

41
XXII FORO NACIONAL DE ESTADÍSTICA

Aprendizaje de la estadística con base en opciones lúdicas:


Proyecto Genios de la Estadística

López Lozada, Lorena*; Castro López, Claudio Rafael; Méndez Sánchez,


Víctor Manuel; Díaz López, Joaquín

Resumen Sin duda, los programas académicos de estadística a nivel de licenciatura enfrentan la
baja demanda en su matrícula y peor aún, la desorientación de los estudiantes que ingresan sobre la
naturaleza de sus estudios, ya que su pensamiento estadístico en los niveles de educación básica se
desarrolla con algunas deficiencias graves. La carrera de Licenciado en Estadística que ofrece la Uni-
versidad Veracruzana en México es un caso que enfrenta problemas de baja demanda, desorientación
y poca motivación del estudiante que ingresa en este programa académico. Esto último ha impactado
en elevados índices de deserción escolar. En este contexto nace el proyecto Genios de la estadística,
con el objetivo principal: motivar el aprendizaje y espíritu investigador que posee todo estadístico, a
través de juegos populares, cuyos contenidos están orientados a conceptos y áreas relacionadas con
la estadística con base a los contenidos temáticos que se abordan a nivel bachillerato. El proyecto se
visualiza en tres grandes etapas: 1) Adaptación y prueba de los juegos, 2) Implementación informá-
tica de los juegos con tecnología Web para disponibilidad en línea y 3) Despliegue de los juegos a la
comunidad usuaria para su evaluación y mejora, así como el seguimiento a usuarios interesados. Esta
información servirá para motivar entre otras cosas cambios en la educación estadística y la implan-
tación de una campaña que promueva nuestro programa académico. Aquí se presenta la experiencia
lograda de la adaptación y prueba (primera etapa) de los juegos denominados La Oca estadística,
MUPARJI y El Retador llevados a cabo in situ con estudiantes de la Licenciatura de Estadística. El
conocimiento incorporado en los juegos se basa en los contenidos temáticos que se abordan a nivel
bachillerato. El contenido requirió la elaboración de un banco de 500 reactivos distribuidos en las
temáticas: Algebra, Computación, Estadística Exploratoria, Probabilidad y Cultura General. Estos
reactivos fueron planteados por los académicos que imparten dichas experiencias educativas.

Contacto:
Lorena López, LINAE y Cuerpos Académicos, Facultad de Estadística, Universidad Veracruzana,
lorlopez@uv.mx

Educación estadística en la educación secundaria.


Un recorrido a partir de gráficas estadísticas.

López Escudero, Olga Leticia*

Resumen La propuesta curricular de Matemáticas para secundaria (SEP, 2006) se organiza en tres
ejes temáticos: Sentido numérico y pensamiento algebraico, Forma, espacio y medida y Manejo de
la información. En este último eje temático se encuentran los conocimientos y habilidades que co-
rresponden a temas de Estadística. En el cartel se muestran, de dos modos distintos, los diferentes
tipos de gráficas estadísticas que se estudian en los tres grados de educación secundaria. El primer
modo es desde lo que se propone que estudien los alumnos de Telesecundaria en el libro del alumno
de primero y segundo grado, ejemplos de diferentes contextos utilizados en las secuencias de estudio.

42
XXII FORO NACIONAL DE ESTADÍSTICA

El segundo modo es desde lo que presentan publicaciones oficiales y se espera que la mayoría de
las personas (alumnos, profesores, padres de familia, etc.) puedan manejar. Por ejemplo, a partir
de un contexto como es: el aprendizaje de las Matemáticas a través de los resultados obtenidos por
los estudiantes de tercer grado de secundaria en la prueba EXCALE, que aplicó el Instituto Nacional
de Evaluación (INEE) en mayo y junio de 2005. Se seleccionan estos dos modos porque se conoce
por los resultados de diferentes evaluaciones (PISA 2000 y 2003; EXCALE 2005; ENLACE 2006)
que la modalidad de Telesecundaria es la que presenta bajos niveles de desempeño. El propósito es
mostrar la secuenciación que existe entre los conocimientos y habilidades de cada grado, resaltando
la importancia de la enseñanza, estudio y aprendizaje de cada uno. Así como, lo relevante de selec-
cionar cuidadosamente contextos adecuados e interesantes para los estudiantes de secundaria, y de
manera especial los de Telesecundaria, en busca de lograr contribuir a las bases de una educación
estadística adecuada para ellos.

Contacto:
Olga Leticia López Escudero, Proyecto de Matemáticas Telesecundaria, Instituto Latinoamericano
de la Comunicación Educativa,
olopez@ilce.edu.mx

Conglomerados como alternativa a la multicolinealidad en regresión

Méndez Ramírez, Ignacio*; Lozano Salado, Deisy

Resumen En estudios observacionales, cuando se quiere efectuar una regresión múltiple, es común
el problema de la multicolinealidad. Ocurre cuando las variables independientes, están muy correla-
cionadas entre si. Esto produce problemas de estabilidad numérica en los estimadores, con errores
estándar de los coeficientes de regresión muy altos. Tradicionalmente se soluciona el problema de
tres maneras, eliminando variables, empleando regresión por cordillera, o efectuando un análisis
de componentes principales con las variables independientes. Se sostiene que con estas tres solu-
ciones hay problemas en la interpretación de los resultados. Por considerar que en la naturaleza es
común esa covaración de variables, dadas las relaciones que hay entre ellas, podemos pensar que
las poblaciones están compuestas por tipologías de variación conjunta. Estas tipologías se pueden
buscar empleando la técnica de conglomerados. De manera que se puede estudiar la relación de una
variable dependiente con las independientes, pero observando los cambios de la primera al pasar
de una tipología (conglomerado) a otra. Después de describir el problema se presenta de manera
general la metodología propuesta y se aplica a 6 ejemplos de la literatura.

Contacto:
Ignacio Méndez Ramírez, Probabilidad y Estadística, IIMAS, UNAM,
imendez@servidor.unam.mx

43
XXII FORO NACIONAL DE ESTADÍSTICA

Rentabilidad de los híbridos de jitomate bajo condiciones de


invernadero en la región de Coatepec.

Montano Rivas, Julia Aurora*; Vez Reyez, Antonio; Ruíz Landa, Dionicio

Resumen Debido a que en el país y en particular en la región de Coatepec, Veracruz se ha presen-


tado una producción muy baja de jitomate, principalmente en la época de invierno, la Unidad de
Capacitación y Desarrollo Rural (UNCADER) ubicada en la Ciudad de Coatepec, Ver., consideró la
posibilidad de realizar el cultivo de jitomate con cuatro híbridos; esto con la finalidad de observar e
identificar cual híbrido (Mónica, Maya, Firenze y H-882) tiene mayores posibilidades de adaptarse
a la región, proporcionando los mejores frutos. Además se quiere determinar la rentabilidad de los
híbridos bajo condiciones de invernadero. Para ello se investiga que tan prolongada sería la vida
del jitomate en anaquel, por lo que se desea identificar cuál de estos cuatro híbridos tienen una
vida en anaquel más prolongada en las mejores condiciones de sanidad. Como es sabido durante
el proceso de maduración de los frutos se provocan una serie de cambios que afectan su calidad y
vida poscosecha, estos cambios originan principalmente el ablandamiento de la pulpa, alteraciones
en color, sabor, textura y aroma; así como también pérdida de peso, tamaño, deshidratación y por
consecuencia presenta poca tolerancia a enfermedades influyendo en estos procesos las condiciones
ambientales (temperatura y humedad) durante su vida de anaquel.

Contacto:
Julia Aurora Montano Rivas, Facultad de Estadística, Universidad Veracruzana,
julmontano@uv.mx

Efectos del cambio de poder en el sector manufacturero de México

Morales, Dionicio*

Resumen En este artículo se pretende establecer si el cambio de poder, resultado de las elecciones
presidenciales en México, tiene algún efecto sobre la industria manufacturera desagregada. Mediante
el uso de series de tiempo y un modelo autorregresivo con variables ficticias se encontró que, de
las 49 ramas que integran la actividad económica de la industria manufacturera, 22 de ellas se ven
afectadas por el evento político. Los resultados mostrados por las 22 actividades indican que 3 de
ellas experimentan una contracción y 4 una expansión antes del cambio de poder; en tanto que 14 de
ellas experimentan contracción y solamente 1 presenta expansión después del cambio de poder.

Contacto:
Dionicio Morales, Facultad de Ingeniería, Universidad Autónoma de Tamaulipas,
dmorales@uat.edu.mx

44
XXII FORO NACIONAL DE ESTADÍSTICA

Análisis multivariado de extremos para evaluar los niveles de


ozono troposférico en la Zona Metropolitana de Guadalajara

Moreno Zúñiga, Tania*; Escarela Pérez, Gabriel

Resumen La ocurrencia de concentraciones altas de ozono en la parte baja de la tropósfera es


considerada como uno de los tópicos más importantes de la química troposférica. Los mecanismos
químicos que controlan la formación del ozono troposférico son complejos y las volátiles condicio-
nes meteorológicas contribuyen adicionalmente a la dificultad en predecir periodos de ozono alto
con exactitud. Las grandes metrópolis cuentan en la actualidad con varias estaciones de monitoreo
las cuales tienden a estar dispersas en una región y tienen varias altitudes sobre el nivel del mar.
El problema principal de los datos generados por estas estaciones es el de obtener predicciones
precisas que indiquen si los niveles de ozono varían entre las zonas que comprenden la región. Más
aún, en presencia de variables atmosféricas se busca inferir varios aspectos sobre las mediciones
de ozono de las estaciones de monitoreo en forma conjunta. Por ejemplo, ¿es posible determinar si
periodos de ozono alto, definidos como concentraciones de ozono mayores de 80 ppd, se concentran
en toda la región o simplemente en ciertas zonas? Otra cuestión relacionada es la de determinar si
hay estaciones de monitoreo que redundan en información en presencia de variables atmosféricas;
esto es, ¿es posible determinar si hay estaciones que proporcionan información equivalente tomando
en consideración variables atmosféricas? Evidentemente esta última cuestión no sólo tiene impacto
científico sino también económico. En el presente estudio se analizan los datos generados por ocho
estaciones de monitoreo operados por la Red Automática de Monitoreo de la Zona Metropolitana de
Guadalajara en el periodo 1997-2004. Aquí, la variable respuesta es el máximo semanal de ozono en
las ocho estaciones; las variables explicativas son la velocidad del viento, dirección del viento, tem-
peratura, humedad relativa, periodicidad y tendencia en el tiempo. Se muestra cómo la construcción
del modelo multivariado se puede realizar a través de la técnica de la cópula usando marginales del
tipo de la valor extremo generalizada. Como se desea estudiar los máximos de ozono, parte del estudio
comprende encontrar una forma paramétrica conveniente donde se pueda evaluar la dependencia entre
las respuestas de las varias estaciones de monitoreo considerando la alta dependencia que puede
haber en la cola derecha de las marginales. Una vez que el modelo está determinado se propone un
método de estimación basado en verosimilitud. Se infiere que efectivamente hay estaciones con altos
grados de dependencia, lo que sugiere que las varias estaciones comparten condiciones atmosféricas
similares para poder predecir un máximo peligroso en un periodo semanal.

Contacto:
Tania Moreno Zúñiga, Dpto. Matemáticas, UAM-I,
tania 8304@hotmail.com

45
XXII FORO NACIONAL DE ESTADÍSTICA

Un mejor sistema para volver a encargar artículos en almacén

Nelson, Wayne*

Resumen Para volver a encargar un artículo en almacén, frecuentemente se usa una regla general: se
encarga suficiente para seis meses. Esto malgasta dinero. Es mejor modelar los costos de encargar, de
manejar, y de artículos (dinero ocioso) en el almacén y entonces determinar el número de artículos que
quedan cuando es apto volver a encargar y el número que se encarga para minimizar el costo total. Los
modelos ingenuos en textos no son adecuados. Esta charla describe un sistema de pedido y un modelo
mejor que hemos usado en un almacén en General Electric Co. El modelo mejor involucra: 1. Todos los
costos de encargar, manejar, almacenar, y pagar un pedido de un artículo. 2. Un modelo aleatorio de
demanda mejor que el ingenuo modelo Poisson. 3. Elección de la probabilidad que se agota el artículo
antes de que llega el pedido en proceso. Antes de poner en práctica el sistema, estimamos el dinero que
el sistema ahorraría para determinar si el sistema valdría el costo de desarrollar el software y de imple-
mentar el sistema. Para hacer esto tomamos una muestra aleatoria estratificada de distintos artículos en
el almacén, y estimamos el ahorro total para todo el almacén. El estimado del ahorro en un año fue más
que el costo de implementación, e implementamos el sistema. En la práctica el sistema redujo el costo
de operación del almacén $ 250,000 dólares anualmente.

Contacto:
Wayne Nelson, asesor, Wayne Nelson Statistical Consulting,
WNconsult@aol.com

Forecasting with Univariate TAR Models

Nieto, Fabio H.*

Resumen The forecasting stage in the analysis of a univariate threshold autoregresive model, with
exogeneous threshold variable, has been developed in this paper via the computation of the so-called
predictive distributions. The procedure permits to forecast simultaneously the response and exoge-
neous variables. An important issue in this work is the treatment of eventual missing observations in
the time series involved before obtaining forecasts.

Contacto:
Fabio H. Nieto, Estadística, Universidad Nacional de Colombia,
fhnietos@unal.edu.co

46
XXII FORO NACIONAL DE ESTADÍSTICA

Contraste de una hipótesis nula central compuesta frente


una hipótesis alternativa bilateral, en la distribución Normal.

Olmedo, Leonardo*; Castillo, Alberto

Resumen En los cursos de estadística, una de las pruebas que se promueve es, sobre la media de una
distribución Normal, H0 : m0 = m1 frente Ha : m0=/ m1. Es difícil notar que, hay un detalle que dificulta
a un investigador aplicado, el uso de los métodos presentados, pero puede surgir en las discusiones
de los resultados, previas a su escritura, en problemas donde la hipótesis nula, H0, de igualdad se
rechaza según el procedimiento seguido, pero la significación estadística no refleja una diferencia
con la igualdad que sea de interés al investigador. La causa de la aparente contradicción entre la
conclusión estadística y la recomendación del investigador no está en el procedimiento de prueba,
ni en los valores que usualmente se establecen para el nivel de significación. El problema radica en
el establecimiento de las hipótesis nula y alternativa. Por ejemplo, es difícil pensar que dos tipos de
semilla tengan exactamente la misma media de producción, así que para rechazar la hipótesis nula
de la igualdad de medias, solo bastaría con tener un tamaño de muestra suficientemente grande.
Para que la prueba pueda adquirir, un sentido práctico, se debería enfocar el interés del contraste,
en probar si la diferencia de medias es menor o igual que una constante apropiada, o es mayor que
esa misma constante. De este modo, al rechazar la hipótesis nula el investigador puede con toda
naturalidad recomendar a uno de los tipos de semilla, pues la diferencia de medias es mayor que
aquella que estableció como base para la comparación.

Contacto:
Leonardo Román Olmedo García, Ciencias Básicas e Ingeniería, Universidad Autónoma Metropolitana,
leonardo olmedo@hotmail.com

Análisis de la verosimilitud para valores extremos

Ortiz Barrañón, Antonio Armando*; Mendoza Ramírez, Manuel

Resumen El estudio de los valores extremos ha cobrado una gran importancia durante los últimos años.
La teoría de valores extremos se basa, principalmente, en dos modelos: la distribución Generalizada
de Valores Extremos (GEV) y la distribución Pareto Generalizada (GPD). En este trabajo se presenta
un análisis de la función de verosimilitud asociada con la GPD. Asimismo, se presentan sus caracte-
rísticas principales y las dificultades que implica su tratamiento estadístico, especialmente cuando
se analizan las distintas regiones que constituyen su soporte. En particular, cuando se considera el
soporte completo sin restricciones se tiene que los estimadores de máxima verosimilitud no existen.
Esta característica también se presenta para el caso de la GEV; por ello, este problema es de carácter
general para la inferencia estadística con valores extremos. En el trabajo, por último, se comentan
algunas oportunidades que tiene la estadística Bayesiana para enfrentar esta problemática.

Contacto:
Antonio Armando Ortiz Barrañón, Departamento de Estadística, ITAM,
a.ortiz.barranon@gmail.com

47
XXII FORO NACIONAL DE ESTADÍSTICA

El análisis de correlación canónica como análisis de datos

Padrón Corral, Emilio*; Méndez Ramírez, Ignacio; Muñoz Urbina, Armando; Torres
Gomar, Manuel Antonio

Resumen La especie arbórea cirián (Crescentia alata H.B.K) es originaria de México y se extiende
desde México hasta Colombia, Perú y Brasil, se ha cultivado en el sur de Florida y California (Esta-
dos Unidos) y también se ha introducido en las Bermudas. En México se cultiva en tierra caliente,
aunque también se encuentra silvestre. Prospera en áreas abiertas tipo sabana, propia de tierras
bajas y en las selvas bajas caducifolias que cubren las serranías en suelos pedregosos, prado some-
ro. Con respecto al uso de la correlación canónica en el análisis de datos, en algunos conjuntos de
datos multivariados las variables se dividen naturalmente en dos grupos. El análisis de correlación
canónica puede entonces ser utilizado para investigar la relación entre los dos grupos (Manly, 1986).
Desde este punto de vista, el análisis de correlación canónica es una generalización de la regresión
múltiple en el cual varias variables Y son simultáneamente relacionadas a variables X. En la práctica
más de un par de variables canónicas pueden ser calculadas en un conjunto de datos. Con respecto
al objetivo del presente trabajo se encuentra el de estudiar el efecto de diferentes variables sobre el
rendimiento del cirián, para lo cual se tomó la dasometría del árbol y del fruto mediante muestreo
por conglomerados para posteriormente ser analizados mediante correlación canónica, a fin de de-
terminar aquellas variables que mas influyen sobre la producción.

Contacto:
Emilio Padrón Corral, Estadística, Universidad Autónoma de Coahuila,
epadron@mate.uadec.mx

Estimación y criterio Bayesiano de referencia por medio de


la pérdida intrínseca ortogonal

Pérez, Sergio*

Resumen Con base en los elementos básicos de las estructuras geométricas de una familia de distri-
buciones de probabilidad, siendo los aspectos principales el teorema de proyección y un teorema de
Pitágoras generalizado de Amari (1990), se propone un método para determinar la mínima divergencia
intrínseca entre dos modelos en presencia de parámetros de ruido, la pérdida intrínseca ortogonal
(PIO). Esta se utiliza como función de pérdida para hacer inferencias Bayesianas sobre el parámetro
de interés. Para probar hipótesis puntuales se propone una solución basada en el criterio Bayesiano
de referencia (CBR) de Bernardo (1999) y Bernardo y Rueda (2002), pero utilizando como función
de pérdida la PIO para el parámetro de interés. Como ejemplo, se trata brevemente el modelo lineal
general y se aplican los resultados a un procedimiento de comparación múltiple de medias.

Contacto:
Sergio Pérez Elizalde, Estadística, Colegio de Postgraduados,
sergiop@colpos.mx

48
XXII FORO NACIONAL DE ESTADÍSTICA

Intervalos de predicción bootstrap en series de tiempo


utilizando diferentes tipos de residuales

Pérez Juárez, José De Jesús*; Ramírez Valverde, Gustavo

Resumen Uno de los intereses principales al estudiar series temporales es la predicción, el enfoque
mas usado para la construcción de intervalos de predicción es el enfoque de Box Jenkins propuesto en
1976, sin embargo, el comportamiento de este enfoque depende del supuesto de normalidad de los
errores. El bootstrap es un método no paramétrico que ha ganado popularidad en las últimas décadas
en un gran número de aplicaciones. En series temporales pueden distinguirse dos enfoques en el
uso de bootstrap: a) el llamado enfoque de bloques y b) el enfoque basado en el modelo. El enfoque
basado en modelos aplica el bootstrap a los residuos obtenidos a partir de ajustar a la serie temporal
un modelo adecuado que pretende absorber la estructura de dependencias de la serie temporal. En
el presente trabajo se hace uso de una representación alternativa de los modelos ARMA(p,q) presen-
tada por G. M. Ljung y G. E. P. Box (1979) a fin de obtener varios tipos de residuales. Mediante un
estudio de simulación se compara el comportamiento del bootstrap aplicado a los distintos tipos de
residuales y su comportamiento es comparado con la técnica Box Jenkins y bootstrap paramétrico
bajo diferentes tamaños de muestra, distintos horizontes de predicción bajo errores con distribución
normal y no normal. Bajo las condiciones mencionadas se muestran los resultados obtenidos, mos-
trando ventajas y desventajas de los enfoques estudiados.

Contacto:
Jesús Pérez Juárez, Estadística, Colegio de Postgraduados,
perezjj@colpos.mx

Comparación de poblaciones normales asimétricas

Pérez, Paulino*; Villaseñor, José

Resumen En el presente trabajo se trata de extender algunas pruebas clásicas que se realizan fre-
cuentemente en estadística cuando un conjunto de datos viene de la distribución normal al caso
cuando éstos vienen de una distribución normal asimétrica. El caso más simple es cuando se quiere
probar si el parámetro de localización toma un valor particular. Otros casos considerados incluyen
el de comparación de medias de dos poblaciones normales sesgadas mediante pruebas de razón de
verosimilitudes generalizadas. La potencia de estas pruebas se compara con otros procedimientos
de prueba existentes mediante simulación. Por último se estudia el problema de mezclas con dos
componentes normales asimétricas y se realiza un estudio de potencia.

Contacto:
Paulino Pérez, Estadística, Colegio de Postgraduados,
perpdgo@colpos.mx

49
XXII FORO NACIONAL DE ESTADÍSTICA

Métodos de remuestreo para la estimación de varianzas en muestreo complejo

Ramos Díaz, Armando*; Méndez Ramírez, Ignacio; Pérez Elizalde, Sergio

Resumen En la mayoría de encuestas grandes, resulta inevitable basarse en un diseño muestral


complejo, es decir, un diseño muestral estratificado con varios niveles de conglomerados. La razón
por la que son preferibles estos diseños a diferencia de los diseños clásicos es que, generalmente,
con el mismo tamaño de muestra se obtiene mejor precisión para los estimadores más importantes
(la misma precisión se obtiene con un menor tamaño de muestra). Tener en cuenta las complejidades
del muestreo es esencial para garantizar la validez de las estimaciones e inferencias de los paráme-
tros de interés. Lo cual indica que, las complejidades que se presentan en el diseño de muestreo
están íntimamente relacionadas con las complejidades propias del procedimiento de estimación.
El presente trabajo tiene como objetivo presentar de manera breve algunos métodos para estimar
las varianzas de cualquier estadístico de los datos de una encuesta, los cuales son: linealización,
jackknife y bootstrap. La linealización por series de Taylor no se basa en el remuestreo pero ha
sido una técnica muy difundida desde mediados de los setenta ya que se puede aplicar a través de
varios paquete de cómputo. Por otra parte, las investigaciones sobre la aplicación del jackknife y
del bootstrap en muestreos complejos se comienzan a dar a mediados de los ochenta; y no es hasta
los noventa que algunas instituciones adoptan alguno de estos métodos formalmente. La referencia
cronológica explica el por qué las investigaciones dirigidas a la comparación de métodos de cálculo
de varianza exploran las nuevas técnicas contrastándolas con la linealización. Por tal motivo, se
consideró necesario presentar su desarrollo junto con el jackknife y el bootstrap, los cuales son mé-
todos de remuestreo que están cobrando auge en la solución de problemas de muestreos complejos
gracias al gran desarrollo computacional.

Contacto:
Armando Ramos Díaz, Estadística, COLPOS,
ramosdiaz@colpos.mx

Contingencias ambientales y el pronóstico de contaminantes atmosféricos

Rodríguez Muñoz, José Elías*

Resumen El problema de contaminación atmosférica por emisiones de SO2 y PM10 sigue siendo
común en ciertas ciudades con actividad industrial. El monitoreo de los niveles de concentración de
estos contaminantes y la aplicación de medidas preventivas para no permitir niveles altos de éstos
son actividades cotidianas que realizan los organismos gubernamentales de ecología. Para lograr que
dichas medidas preventivas sean pertinentes, es necesario contar con pronósticos adecuados de los
contaminantes SO2 y PM10. Esta presentación mostrará cómo se construyó un modelo de pronóstico
automático de los mencionados contaminantes en la ciudad de Salamanca.

Contacto:
José Elías Rodríguez Muñoz, Matemáticas, Universidad de Guanajuato,
elias@cimat.mx

50
XXII FORO NACIONAL DE ESTADÍSTICA

Métodos semiparamétricos en el análisis de encuestas:


mejorando la precisión de los estimadores

Rodríguez Muñoz, José Elías*

Resumen En la práctica y para la estimación de parámetros socioeconómicos de una población es


posible contar, en ocasiones, con información auxiliar. Esta información puede ser registros adminis-
trativos o información censal. Dicha información auxiliar se puede utilizar para mejorar la precisión
de los estimadores de los parámetros socioeconómicos de la población bajo estudio. Una forma de
mejorar la mencionada precisión es utilizando métodos de estimación semiparamétrica. En esta con-
ferencia se hará una presentación panorámica de dichos métodos de estimación, nuevas propuestas
metodológicas y posibles áreas de oportunidad en la investigación en esta área. Específicamente
se mostrará como utilizar, en el análisis de encuestas, la estimación por splines, modelos aditivos y
regresión con coeficientes variables. Adicionalmente se presentará una aplicación de estimación de
agregados municipales combinando información censal y de una encuesta.

Contacto:
José Elías Rodríguez Muñoz, Matemáticas, Universidad de Guanajuato,
elias@cimat.mx

Análisis comparativo de la teoría clásica de ajustes con respecto a la teoría de


valores extremos en la distribución de los máximos de los ingresos

Rodríguez Silva, José Luis ángel*

Resumen El problema de la determinación de la estructura estocástica de una distribución de datos


es fundamental dentro de la teoría y la práctica de la estadística contemporánea. Esto es igualmente
cierto en estudios de estadística oficial, en particular en lo asociado a la información de los ingresos
en México. Una problemática íntimamente asociada con lo anterior es el hecho de ajustar y analizar
las principales propiedades de los máximos de los ingresos en la cola superior de los mismos. Este
es un problema de gran relevancia debido a que los ingresos presentan peculiaridades especiales. En
primer lugar, la cola derecha de la distribución de los ingresos es sumamente pesada lo cual imprime
cierto grado de complejidad al estudio, y unos cuantos ingresos superiores tienen una contribución
muy importante al total de la distribución. Debido a lo anterior, y considerando que finalmente los
datos de la cola derecha pueden considerarse como extremos, el presente trabajo analiza de manera
comparativa los modelos que se derivan de la teoría de valores extremos con respecto a los modelos
clásicos de ajuste. Hasta el momento de escribir este trabajo, aparentemente no se ha llevado a cabo
alguna investigación con respecto al ajuste que proporciona la familia unificada de valores extremos
en la parte derecha de la distribución de ingresos. Por este motivo, es de interés el contar con un
marco de referencia de esta naturaleza para vislumbrar cuales de dichos esquemas tiene las mejores
propiedades estadísticas de ajuste. Las implicaciones asociadas a lo anterior son diversas. En primer
lugar, el hecho de tener un buen ajuste permite asociar un modelo distribucional (con propiedades
estadísticas razonables) a los datos de los ingresos. En segundo lugar, tal análisis podría permitir
establecer cotas de incertidumbre asociadas en este proceso. En tercer lugar, esto puede dar lugar
a establecer mecanismos de contraste de los datos de la Encuesta Nacional de Ingreso y Gasto en
51
XXII FORO NACIONAL DE ESTADÍSTICA

los Hogares (ENIGH) 2004 con respecto a otros estudios que sean realizados con respecto a los
ingresos. Finalmente, al ya tener un ajuste a una o varias variables relevantes, tal mecanismo podría
coadyuvar al análisis de predicciones, cotas de error en variables de interés, etc. Así, en este trabajo
se brinda un marco de comparación entre el modelo beta generalizado del segundo tipo, el modelo
lognormal y el modelo unificado de la familia de valores extremos con la finalidad de analizar cual
de ellos tiene el mejor nivel de ajuste a la distribución de los máximos de los ingresos corrientes en
la ENIGH 2004.

Contacto:
José Luis ángel Rodríguez Silva, Dirección de Desarrollo de Procesos Estadísticos, Instituto Nacional
de Estadística, Geografía e Informática,
angel.rodriguez@inegi.gob.mx

Análisis espectral aplicado al electroencefalograma

Saavedra Gastélum, Verónica*; Fernández Harmony, Thalía; Castaño Tostado,


Eduardo; Castaño Meneses, Víctor Manuel

Resumen El análisis espectral del electroencefalograma permite la evaluación de una persona para deter-
minar si es una persona normal o presenta algún tipo de problema cerebral, basándose en los ritmos elec-
troencefalográficos. Hasta la fecha, en México se utiliza la Transformada de Fourier para la obtención de la
densidad espectral, violando supuestos inherentes al método. Por lo que se pretende mostrar los problemas
relacionados con el uso de la Transformada de Fourier y se proponen posibles soluciones con la Transformada
de Ondeleta. Además de definir de manera neurológica el cálculo de la densidad espectral.

Contacto:
Verónica Saavedra Gastélum, Posgrado de Ingeniería, UAQ,
veroclessg@yahoo.com.mx

Estudio estadístico de las causas que provocan la diabetes

Sánchez Rinza, Bárbara Emma*; Huerta, Jessica Jovana; Jiménez, Jazmín

Resumen La diabetes junto con las enfermedades del corazón y el cáncer son las tres principales
causas de muerte en México y forman parte de los problemas graves de salud pública, junto con la
obesidad. Actualmente en nuestro país la enfermedad de la diabetes es un asunto preocupante, ya
que hasta hace 31 años las principales causas de muerte en nuestro país eran la diarrea, la neumonía,
y las infecciones respiratorias agudas. La diabetes ocupaba el séptimo lugar, mientras que ahora la
diabetes mellitus es una de las principales causas de muerte en nuestro país. Para ser más exacto
a la fecha ocupa el tercer lugar de mortalidad en nuestro país. México se encuentra ubicado a nivel
mundial como uno de los países con el mayor número registrado de casos de diabetes, y se espera
un incremento a futuro de este número de casos de personas diabéticas. En 1995 México ocupaba
el décimo lugar con casos de diabetes, pero se espera que para el año 2025, ocupará el séptimo con
10 millones de personas diabéticas. Esto se podría afirmar con el siguiente dato, en México por cada

52
XXII FORO NACIONAL DE ESTADÍSTICA

año mueren aproximadamente 40,000 personas a causa de la diabetes. Se va a mencionar un poco


acerca de la diabetes mellitus que es una enfermedad crónico-degenerativa esta surge por la falta de
insulina, una hormona cuya función principal es permitir la entrada de glucosa a las células, así por
falta de esta hormona es que se genera un incremento en los niveles de azúcar en la sangre (glucosa
sanguínea), condición denominada Hiperglicemia (la Hiperglicemia sucede cuando el azúcar en la
sangre alcanza un nivel de 180 mg/dl o más). En México, 11% de la población entre 20 y 69 años
padece diabetes, la cual en la última década se ha ubicado como la enfermedad crónico-degenerativa
con mayor carga de mortalidad y discapacidad entre quienes la padecen. Debido a la importancia de
esta enfermedad degenerativa, se ha hecho un estudio estadístico tomando en cuenta las caracte-
rísticas de los pacientes que la presentan a continuación: Factores de Stress, Factores de Ingestión,
Factores herdofamiliares, Factores de tipo de personalidad.

Contacto:
Bárbara Emma Sánchez Rinza, Computación, Benemérita Universidad Autónoma de Puebla,
brinza@cs.buap.mx

Factores estadísticos que crean un embarazo de alto riesgo

Sánchez Rinza, Bárbara Emma*; Huerta, Jessica Jovana; Jiménez, Jazmín

Resumen Para la gran mayoría de las mujeres, el embarazo sigue una evolución bastante normal.
Sin embargo, algunas pueden enfrentarse con dificultades y desafíos inesperados en un embarazo de
alto riesgo, es por eso en este trabajo se hace un análisis de los factores de riesgo que tienen mayor
peso en nuestra vida actual para llegar a tener un embarazo de este tipo. Tener un embarazo de alto
riesgo significa que la mujer tiene mayores posibilidades de complicaciones debido a las condiciones
de su embarazo, a su estado médico o su estilo de vida, o como consecuencia de factores externos.
Muchas veces, las complicaciones son inesperadas y pueden producirse sin que haya indicios previos.
Otras veces, hay ciertos factores de riesgo que aumentan la posibilidad de que haya problemas. La
identificación de los riesgos potenciales de un embarazo es una parte importante del cuidado previo
al mismo. Algunas mujeres tienen más posibilidades de tener un embarazo de alto riesgo debido a
sus antecedentes genéticos, trastornos médicos existentes, su estilo de vida o factores que pueden-
desarrollarse con el embarazo. Este trabajo, por la variedad de factores que influyen en un embarazo
de alto riesgo, se hizo con la colaboración de médicos ginecólogos.

Contacto:
Barbara Emma Sanchez Rinza, COMPUTACION, BUAP,
brinza@cs.buap.mx

53
XXII FORO NACIONAL DE ESTADÍSTICA

Combining multiple time series data for demographic analysis

Silva, Eliud*; Guerrero, Víctor; Peña, Daniel

Resumen Two situations for combining multiple time series information are considered. Firstly, we
propose a method to combine decennial census data with annual vital statistics information in order
to estimate annual population data for geographic areas of the Metropolitan Zone of Mexico City.
Secondly, we combine the annual disaggregated series with a set of official targets about future
population growth rates, and propose a mechanism to evaluate the compatibility of the demographic
goals with the annual estimated data. We conclude that the targets established in the population
program are not attainable and make a compatible proposal of future population growth rates.

Contacto:
José Eliud Silva Urrutia, Estadística, Carlos III de Madrid,
jsilvaurrutia@hotmail.com

Comparación de algunas pruebas estadísticas asintóticas de


no-inferioridad para dos proporciones independientes

Sotres, David*; Almendra, Félix

Resumen En este trabajo se compararon las pruebas asintóticas para no-inferioridad de Blackwelder,
Farrington-Manning, Bohning-Viwatwongkasen, Hauck-Anderson, la prueba de razón de verosimilitudes
y dos variantes de estas pruebas, en base a sus niveles de significancia y a sus potencias reales. La
prueba de Farrington-Manning es la que resultó tener la mejor aproximación del nivel de significancia
real al nominal para tamaños de muestra entre 30 y 100 y para los 3 límites de no-inferioridad mas
frecuentemente utilizados en la práctica. Además, la potencia de la prueba de Farrington-Manning
resultó muy similar a las potencias de aquellas pruebas con buena aproximación del nivel de signi-
ficancia real al nominal.

Contacto:
David Sotres Ramos, Estadística, Colegio de Postgraduados,
sotres.davida@kendle.com

Medidas repetidas para datos con distribución bimodal y


censura: aplicación en la evaluación de un programa social.

Trejo Valdivia, Belem*

Resumen Muchos estudios con pacientes diabéticos tienen como objetivo evaluar tratamientos y otras
formas de intervención que aseguren un control apropiado de la enfermedad. Un buen marcador de
control glucémico es la concentración de hemoglobina glucosilada en sangre (HbA1c), por lo que
resulta de interés el identificar y evaluar los factores y condiciones que pueden afectarla favorable
o desfavorablemente. Para la evaluación de un programa de tipo social a nivel nacional, se estudió

54
XXII FORO NACIONAL DE ESTADÍSTICA

y modeló el comportamiento de HbA1c en una población de diabéticos en situación de pobreza. La


distribución resultante es una mezcla de distribuciones que incluye una parte censurada generada por
el tipo de instrumento usado en la cuantificación. Para responder a los objetivos de dicha evaluación,
en una primera etapa de análisis, se ajustaron modelos lineales para datos longitudinales que inclu-
yeran la bi-modalidad de la respuesta y la censura utilizando sólo la información de 274 individuos
entrevistados en 2003 y en 2004. En la segunda etapa se adiciona a lo anterior, la información de
403 individuos entrevistados sólo en 2003, y de 250 individuos entrevistados sólo en 2004, lo que
produce una estructura de medidas repetidas desbalanceadas. Se realizó además un estudio en donde
se determinó HbA1c por dos métodos distintos y que permite generar un modelo de pronóstico que
se usa para imputar valores de HbA1c en casos censurados. En esta plática se presentan resultados
sobre el ajuste de modelos para medir el efecto del programa, de covariables socio-demográficas y
de apego al tratamiento bajo la estructura de medidas repetidas y variable respuesta bimodal.

Contacto:
Belem Trejo Valdivia, Dirección de Evaluación de Programas y Bioestadística, Instituto Nacional de
Salud Pública,
bvaldivia@insp.mx

Procedimientos para el análisis de datos no detectados en


contaminación ambiental

Ulín Montejo, Fidel*; Vaquera Huerta, Humberto

Resumen En el análisis de datos de contaminación ambiental debido a metales pesados, como plomo,
mercurio y arsénico, surgen problemas debido a la presencia de datos no detectados, es decir, datos
censurados por la izquierda. Las limitantes en los instrumentos de medición, en las condiciones y
en los protocolos de muestreo generan este tipo de datos. Muchos estudios refieren a la distribución
lognormal como un modelo apropiado para las concentraciones de metales pesados en mantos freá-
ticos y acuíferos, sin embargo los procedimientos y manuales más comunes para el análisis de este
tipo de datos se realizan bajo un enfoque no paramétrico o empírico. En este trabajo se proponen
procedimientos paramétricos para la comparación de concentraciones medias de contaminantes, ba-
sada en un modelo de regresión dummy, la función de verosimilitud total y los intervalos de confianza
aproximados de Wald. El algoritmo EM es de gran utilidad en el manejo de los datos no detectados.
También se presenta una alternativa mediante modelos mixtos, para el caso de factores y covariable
aleatorias implícitos; y por último una introducción al análisis de tendencias para datos en función del
tiempo o el espacio, mediante el análisis de regresión. Finalmente se ejemplifican estas propuestas
con información obtenida de agencias de protección ambiental y artículos científicos.

Contacto:
Fidel Ulín Montejo, Estadística, Colegio De Postgraduados,
fidel@colpos.mx

55
XXII FORO NACIONAL DE ESTADÍSTICA

México: incidencia de la pobreza (1971-2004), estimaciones


por el método de componentes principales

Vences, José*

Resumen Se realizó un estudio por el método multivariado de Análisis de Componentes Principales


Robustas para estimar y observar la tendencia de la pobreza en México, esto es, el porcentaje de la
población total que se encuentra en esta situación, para el periodo 1971-2004. Para ello se utili-
zaron variables macroeconómicas relacionadas entre sí y con la pobreza misma: producto interno
bruto, ingreso nacional disponible, remuneraciones a los asalariados, remesas familiares del exterior,
subsidios, salario mínimo y tasa de inflación. Los resultados de la primera componente principal
(CP) señalan que la pobreza de patrimonio, a la que está referida este estudio, ha experimentado
cambios a lo largo del tiempo, sobre todo las crisis económicas al final del sexenio se ven reflejadas
en un incremento de pobreza al iniciar la siguiente administración gubernamental, y posteriormente
se registra un descenso gradual. En relación a la actual administración, con el método utilizado
se previó una ligera caída de la pobreza en el bienio 2000-2002, de 53.7% a 52.7%, mientras
que las cifras oficiales (de 53.7% a 51.7% respectivamente), con base en la Encuesta Nacional
de Ingresos y Gastos de los Hogares (ENIGH) levantada por el INEGI en los años pares, registraron
también una caída sólo que de dos puntos porcentuales, lo cual muestra una alta consistencia entre
ambos métodos. Al calcular los intervalos de confianza se obtuvo un traslape entre ellos, además los
puntos correspondientes a la primera CP se ubicaron en su interior, con lo que se concluye que no
hubo diferencia significativa en la pobreza de patrimonio al pasar del año 2000 al 2002, y que tal
situación fue prevista correctamente por el método mencionado.

Contacto:
José Vences, Instituto Nacional de Estadística, Geografía e Informática,
Jose.Vences@inegi.gob.mx

Distributional Characteristics of Convex Clusters

Von Eye, Alexander*

Resumen Most methods of cluster analysis use within/between criteria to evaluate cluster solutions.
For example, Ward’s method minimizes the variance within clusters while maximizing the variance
between. Recently, it has been proposed to evaluate existing cluster solutions based on distributional
assumptions (von Eye, 2006). In this paper, results from a simulation study are presented in which
the following variables were varied: 1. Base probability model: homogeneous Poisson and normal,
2. Shape of cluster: spherical and ellipsoid, 3. Correlation between clusters: from 0.0 to 0.4, in
increments of 0.1, 4.Type of data distribution: Normal; uniform; logarithmic; inverse Laplace trans-
formed; cube root transformed, 5. Method of clustering: Ward’s method, complete linkage, average
linkage, McQuitty’s method, median linkage, centroid method, 6. Sample size, N: from 70 to 150,
in increments of 20, 7. Number of variables: from 3 to 7, in increments of 1, 8. Cluster Size (taken
from the simulation results), 9. Number of Clusters: from 2 to 9, in increments of 1, 10. Relation
to expectancy: more versus fewer cases in a cluster (taken from the simulation results). Variables 6

56
XXII FORO NACIONAL DE ESTADÍSTICA

-10 were used as covariates. Dependent measure was the probability of a cluster. ANOVAs showed
that Cluster Size had the biggest effect, followed by Relation to Expectancy and the Number of
Variables. With only one exception, all interactions with Relation to Expectancy were significant. In
addition, results showed that about 25% of the clusters contain fewer cases than expected under
either probability model. It is concluded that density centers do not necessarily contain more cases
than expected from the perspective of a probability model, and that non-normal and non-uniform
data result in the most extreme clusters.

Contacto:
Von Eye Alexander, Psychology, Michigan State University,
voneye@msu.edu

57
XXII FORO NACIONAL DE ESTADÍSTICA

Sesión Temática, Estadística e Industria

Perspectivas de la Metodología Seis Sigma desde la Visión del CIMAT.

M. en E. Rafael Pérez-Abreu Carrión


Unidad Aguascalientes, CIMAT.
rabreu@cimat.mx

Resumen Seis Sigma es una metodología que surge en México alrededor de 1998 y va tomando fuerza
hacia el año 2000. Se ostenta como una metodología de solución de problemas críticos, aplicando el
método científico. Las organizaciones la pueden adoptar, para lograr un liderazgo duradero en el negocio
y un desempeño de primer nivel en un ámbito global. De ahí es que grandes y medianas empresas en
México muestran interés por conocer y aplicar seis sigma en su organización. Dentro de la Metodología
Seis Sigma se integran una diversidad de conocimientos estadísticos y humanos, razón por la cual, CIMAT
decide incursionar en el tema aprovechando su potencialidad, liderazgo y su experiencia en estadística,
motivando un fortalecimiento en la capacidad institucional del Centro y promoviendo la extensión de
su oferta de formación de recursos humanos de alto nivel. Así mismo Seis Sigma se integra como una
nueva área en las actividades de investigación y desarrollo tecnológico del Centro.

El propósito de esta plática es dar a conocer un panorama global de cómo se ha venido desarrollando
la iniciativa de la Metodología Seis Sigma en México, los casos de éxito, los fracasos y finalmente la
tendencia del uso de la Metodología Seis Sigma hacia un futuro. Toda esta perspectiva desde la visión
del CIMAT y su interacción con empresas mexicanas.

Algunos Problemas y Soluciones en el Análisis de Experimentos Ajustados con


Modelos Lineales Generalizados.

Víctor Aguirre Torres


Departamento de Estadística
ITAM

Resumen Se discute por medio de ejemplos dos problemas que surgen en el análisis de experimentos
analizados con modelos lineales generalizados, a saber: la correlación entre estimadores de los efectos
y el supuesto de tamaño de muestra grande. El primer problema puede producir que un efecto no signi-
ficativo parezca significativo porque un efecto significativo lo jale, mientras que con tamaños de muestra
relativamente pequeños se puede producir el problema de que el modelo ni siquiera se consiga ajustar
a los datos. Una solución que se propone para ambos problemas es el análisis Bayesiano el cual, entre
otras cosas, produce probabilidades posteriores de que los efectos sean significativos, que no dependen
de la correlación entre los estimadores ni del supuesto de muestra grande.

58
XXII FORO NACIONAL DE ESTADÍSTICA

Cartas de Control desde la Perspectiva Bayesiana

Humberto Gutiérrez Pulido


Centro Universitario de Ciencias Exactas e Ingenierías, Universidad de Guadalajara
humpulido@yahoo.com

Resumen Las cartas de control son una herramienta poderosa para monitorear procesos. Generalmente
sus límites de control son calculados usando parámetros que son estimados a partir de muestreos del
proceso durante un período base (Fase I). Durante la Fase II del esquema de monitoreo, los estadísti-
cos basados en nuevas muestras son comparadas con los límites de control para monitorear cambios
especiales en el proceso. La mayoría de los estudios teóricos para evaluar el desempeño de las cartas
de control durante la Fase II se basan en el supuesto de que los parámetros son conocidos. Ignorando
que la estimación tiene un efecto en el desempeño de las cartas.

Además durante la Fase I no se dispone de una carta de control para estar evaluando el desempeño
del proceso, y cada vez que hay un cambio mayor en el proceso es necesario volver a iniciar la Fase I.
Esto en general es un problema en el control del proceso en tiempo real, pero es sumamente crítico en
los procesos en los que se obtiene datos lentamente y en los procesos donde se hacen corridas cortas.
De tal forma que resulta casi imposible cubrir la Fase I para poder calcular los límites y tener una carta
de control.

En este trabajo se ve que las cartas de control derivadas desde la perspectiva Bayesiana corrigen estos
y otros problemas de las tradicionales cartas de control, ya que incorporan en forma natural la incerti-
dumbre sobre la estimación de los parámetros del modelo, consideran pequeñas variaciones naturales
en los procesos y además, incorporando en forma adecuada la información a priori, se elimina la ne-
cesidad de la Fase I. Todo esto se ilustra derivando las correspondientes versiones Bayesianas para las
tradicionales cartas de control tipo Shewhart.

Experimentación Estadística:
Una herramienta útil para mejora de productos.
Dos aplicaciones en la industria en México

Teresa López Alvarez

Resumen Se presentan dos casos de estudio de la industria mexicana en donde se mejoran pro-
ductos con el uso de experimentación estadística; específicamente se utilizan diseños factoriales,
además el primer caso ilustra un ejemplo de experimentación secuencial. En ambos casos la
característica de calidad de interés no se puede medir con un instrumento de medición idóneo. Y
también en ambos casos se utiliza como variable de respuesta los rangos.

59
XXII FORO NACIONAL DE ESTADÍSTICA

Notas

60
XXII FORO NACIONAL DE ESTADÍSTICA

61
XXII FORO NACIONAL DE ESTADÍSTICA

62
XXII FORO NACIONAL DE ESTADÍSTICA

63
XXII FORO NACIONAL DE ESTADÍSTICA

64
XXII FORO NACIONAL DE ESTADÍSTICA

65
XXII FORO NACIONAL DE ESTADÍSTICA

66
XXII FORO NACIONAL DE ESTADÍSTICA

67
XXII FORO NACIONAL DE ESTADÍSTICA

68
XXII FORO NACIONAL DE ESTADÍSTICA

69
XXII FORO NACIONAL DE ESTADÍSTICA

70
XXII FORO NACIONAL DE ESTADÍSTICA

71
XXII FORO NACIONAL DE ESTADÍSTICA

72

Вам также может понравиться