Академический Документы
Профессиональный Документы
Культура Документы
Pag.
3 Presentación
7 Programa Científico
16 Conferencias Invitadas
18 Cursos
19 Contribuciones Libres
Tengo el placer de darles la Bienvenida al XXII Foro Nacional de Estadística de la Asociación Mexicana
de Estadística (AME) y al XI Seminario de Estadística Aplicada del Inter-American Statistical Institute
(IASI).
Nos llena de orgullo haber sido seleccionados para organizar estos eventos.
Desde su fundación en 1946, el ITAM ha considerado a la Estadística como una de las áreas más
importantes del conocimiento que requieren nuestros estudiantes en su vida profesional. A lo largo de
los años, el ITAM se ha convertido en una institución de prestigio internacional en la educación superior
gracias a su fuerte compromiso con la investigación científica y la creación de conocimiento. El año
pasado celebramos nuestro sesenta aniversario mirando hacia el futuro de nuestra institución.
Estoy seguro que su asistencia a las conferencias y cursos será de lo más productivo y les invito a que
aprovechen estos días para interactuar con sus colegas del resto del país y reconocidos investigadores
del extranjero.
Bienvenidos.
XXII FORO NACIONAL DE ESTADÍSTICA
XXII FORO NACIONAL DE ESTADÍSTICA
Presentación
El Foro Nacional de Estadística se celebra por vigésima segunda ocasión. El evento anual
más importante que auspicia la Asociación Mexicana de Estadística (AME) alcanzó su
mayoría de edad y ahora transita por los primeros años de su edad adulta para,
seguramente, consolidarse en la madurez. Este año, el Foro se llevará a cabo
conjuntamente con el XI Seminario de Estadística Aplicada del Instituto Interamericano de
Estadística (IASI) en Jurica, Querétaro, y la institución que asumió la responsabilidad de
organizarlo fue el Instituto Tecnológico Autónomo de México. Esta tarea hubiese sido
imposible sin la colaboración de una variedad de instituciones que en distintas formas han
apoyado el proceso.
Durante los meses recientes los comités, organizador y de programa, se han ocupado de
los preparativos para que el XXII Foro cubra las expectativas de la comunidad que
tradicionalmente acude al evento y, en particular, han diseñado un programa científico
que si bien tiene como guía temática los tópicos de Estadística y Negocios por una parte y
Series de Tiempo, por otra, incluye casi setenta trabajos que reflejan el amplio abanico de
áreas en las que se desarrolla la actividad de investigación, consultoría y enseñanza de
los estadísticos en México.
La mejor recompensa para todos los que hemos colaborado a fin de que este XXII Foro
tenga lugar, será que la asistencia sea muy abundante y cuando termine, quienes acudan
esperen con interés el siguiente Foro.
Por último, es oportuno recordar que el Foro nació hace casi un cuarto de siglo de una
iniciativa que concibió, diseñó y desarrolló durante dos años consecutivos, nuestro colega,
el Dr. Rubén Hernández Cid. Ha sido un placer colaborar en un Foro en el que, después
de 20 años, Rubén preside de nuevo el Comité Organizador Local.
XXII FORO NACIONAL DE ESTADÍSTICA
El trabajo realizado por los Comités de Programa, tanto del Foro como del
Seminario, son merecedores de mi más amplio reconocimiento por el esfuerzo
que realizaron y que es evidente en el programa propuesto. De igual manera, a
los Comités de Organización de este evento conjunto, tanto el nacional como el
local, les brindo mi agradecimiento por facilitar las cosas de manera tal que
parece fácil lo que en realidad implicó solucionar problemas de logística
r e l a t i v a m e n t e c o m p l i c a d o s . E l I n s t i t u t o Te c n o l ó g i c o A u t ó n o m o d e M é x i c o
( I TA M ) , l a U n i v e r s i d a d A u t ó n o m a d e Q u e r é t a r o , e l I n s t i t u t o N a c i o n a l d e
Estadística, Geografía e Informática (INEGI), el Centro de Investigación en
Matemáticas (CIMAT) y el Instituto de Investigación en Matemáticas Aplicadas
y Sistemas (IIMAS de la UNAM), así como las demás instituciones
participantes, son también merecedoras de mi aprecio por los auspicios que
brindaron para hacer posible esta reunión.
Deseo que esta reunión sea provechosa y agradable para todos ustedes.
Víctor M. Guerrero
Presidente del IASI
XXII FORO NACIONAL DE ESTADÍSTICA
XXII FORO NACIONAL DE ESTADÍSTICA
Programa Científico
Miércoles 17 de Octubre
Jueves 18 de Octubre
__________
* Expositores
XXII FORO NACIONAL DE ESTADÍSTICA
XXII FORO NACIONAL DE ESTADÍSTICA
10
XXII FORO NACIONAL DE ESTADÍSTICA
Viernes 19 de Octubre
11
XXII FORO NACIONAL DE ESTADÍSTICA
12
XXII FORO NACIONAL DE ESTADÍSTICA
19:20 – 19:40 López, L.*, López, C., Claudio, R., Méndez, V.M. y Díaz, J.
Aprendizaje de la Estadística con base en opciones lúdicas: Proyecto
genios de la Estadística
Sábado 20 de Octubre
Javier Alagón
Regresión logística: una propuesta de solución a los problemas de
correlación en estudios de mercado
Roy Campos
El diseño muestral: pilar de la investigación
Manuel González
Modelos de atribución publicitaria, un enfoque Bayesiano
Leonardo Muedano
Segmentación: aplicación a un panel de hogares
Conferencias Invitadas
Peter E. Rossi
Graduate School of Business, University of Chicago
Resumen I will review the progress of the application of Bayesian Methods to marketing problems.
Emphasis will be placed on large scale applications in which the number of parameters is potentially
very large. I will use our R package, bayesm, to illustrate some of these applications. I will conclude
with a discussion of the issue of simultaneity which I believe is an area with great research potential
and relevance for marketing.
Carmen Batanero
Universidad de Granada, España
Fabrizio Ruggeri
Istituto di Matematica Applicata e Tecnologie Informatiche, Italia
Resumen In the talk we illustrate methods and problems the author has considered in the last few
years. The motivating case studies are gas escapes in a city network, mechanical failures in subway
trains, possible introduction of new bugs during software testing and corrosion of cylinder liners in
ship Diesel engines. The entertained models are non homogeneous Poisson processes, self-exciting
processes, hidden Markov models and diffusions.
16
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen El propósito principal de esta presentación es proporcionar un enfoque común para estudiar
diversos estimadores no-paramétricos usados en el contexto del análisis de series de tiempo, con
referencia especial a la estimación de la tendencia-ciclo de corto plazo. Los filtros lineales basados
en diferentes criterios de suavizado se transforman en funciones de núcleo mediante la teoría de
Reproducing Kernel Hilbert Spaces. Para cada estimador, se identifica una función de densidad o
núcleo de segundo orden y de ahí se deriva una jerarquía de estimadores de orden superior. Se de-
muestra que estos brindan excelentes representaciones para los filtros simétricos que se usan en la
actualidad. Las ponderaciones asimétricas se deducen al adaptar las funciones de núcleo a la longitud
de los diversos filtros, y se hace una comparación con los suavizadores clásicos usados en el análisis
de series de tiempo. Se demuestra que son superiores en términos del paso de señal, de la supresión
de ruido y de la velocidad de convergencia a sus filtros simétricos, en relación con los clásicos.
Geoffrey Vining
Virginia Polytechnic Institute and State University, EUA
Resumen This talk gives an overview of the current directions in the literature for the design and analysis
of industrial experiments. It discusses such areas as experiments under restricted randomization,
computer experiments, optimal versus classical experimental designs, experimental designs for
reliability, and experimental designs for financial transactions. This talk seeks to give the perspective
of both the needs of the practitioner and the interests of the researcher.
Enrique de Alba
Instituto Tecnológico Autónomo de México y University of Waterloo, Canadá
Resumen Se hará una breve descripción y reseña del tema de pronóstico en series de tiempo cortas
con periodicidad estable, señalando las principales contribuciones en la literatura. Posteriormente
se abordará el problema mediante el uso de un modelo Bayesiano. La variable que se desea
pronosticar es el total o valor acumulado de una variable continua y positiva para la cual se cuenta
con observaciones para acumulaciones parciales. Estas condiciones se presentan de manera natural
en muchas situaciones reales. Se describirá un modelo sencillo que relaciona las acumulaciones
parciales y el total de la variable de interés, y para la que se desea obtener los pronósticos. Se
mostrará cómo obtener tanto estimaciones puntuales como intervalos de probabilidad. Se presentan
aplicaciones del modelo a diversos ejemplos, muy particularmente al cálculo de reservas en seguros;
y se comparan los resultados con métodos tradicionales existentes en esta área.
17
XXII FORO NACIONAL DE ESTADÍSTICA
Cursos
Pedro Morettin
Universidade de S o Paulo, Brasil
En este curso se hará énfasis en la presentación de modelos para el análisis de series de tiempo
financieras; básicamente para rendimientos de activos financieros. Las familias ARMA, ARCH-GARCH
y SVM (de volatilidad estocástica) se presentarán con aplicaciones a series de tiempo reales, en
particular para el cálculo del VaR (valor en riesgo). Es la intención presentar también material sobre
modelos multivariados (básicamente modelos VAR), co-integración y procesos de memoria larga.
Contenido:
Geoffrey Vining
Virginia Polytechnic Institute and State University, EUA
Generalized Linear Models (GLM) is an important analysis tool for data well modeled by a large number
of families of distributions. Specifically, GLM uses maximum likelihood estimation for any member
of the exponential family of distributions. Ordinary least squares estimation for normally distributed
data, logistic regression for binomial data, and Poisson regression are all special cases of GLM. This
course assumes some basic familiarity with ordinary least squares estimation. It starts with a review of
multiple linear regression analysis. It then provides an introduction to logistic regression, emphasizing
the use of maximum likelihood estimation. The course next discusses Poisson regression. It then
generalizes maximum likelihood estimation to any member of the exponential family, with particular
emphasis on the gamma distribution, which is often important for reliability data. The course discusses
such issues as residual analysis within GLM, choice of link function, and overdispersion. Examples
illustrate each methodology. The course uses both MINITAB and SAS’s PROC GENMOD.
18
XXII FORO NACIONAL DE ESTADÍSTICA
Contribuciones Libres
Resumen En Líneas de Producto de Ingeniería de Software (SPLE, por sus siglas en inglés) se procura
capitalizar el reuso fijando un esquema para la planeación, desarrollo y administración de activos
básicos. La administración del producto es ’Planeación, organización, ejecución, y control de todas
las tareas, que apuntan a una concepción, producción y mercadotecnia de todos los productos que
ofrece una compañía’. Para SPLE, la definición de productos exige una gran importancia puesto que
tal definición pone los fundamentos para el reuso. El Modelo de Kano proporciona un esquema para
definir productos que satisfagan altamente al cliente. Sin embargo, el modelo carece de principios
y elementos estadísticos, pues este modelo se basa en cuatro pasos que son: 1) Identificación de
los requerimientos, 2) Elaboración del cuestionario, 3) Levantamiento de la encuesta, 4) Captura y
análisis de la información; se dice que carece de principios y elementos estadísticos pues no men-
ciona como llevar a cabo la encuesta y como debe de analizarse los datos es por eso que se realizó
un análisis de correspondencia en el cual se elaboraron tablas de contingencia con frecuencias y
porcentajes utilizando el estadístico c2 con la prueba de Pearson y máxima verosimilitud, utilizando
pruebas de hipótesis planteadas de la siguiente manera: H0 : Todos los porcentajes son iguales H1:
Al menos un porcentaje es diferente. Se determinó la relación que hay entre las características de
los encuestados y los requerimientos de esta línea de productos de software y así ver cuáles requeri-
mientos son considerados como básicos, satisfactorios, fascinantes, indiferentes o no deseados. Por
ello, con la participación de estudiantes de Consultoría Estadística se obtuvo un proceso completo
para el uso del Modelo Kano. Aquí, se presenta el uso del Modelo Kano para la definición de un
portafolio de línea de producto de software.
Contacto:
Esmeralda Aguilar Parra, Facultad de Estadística e Informática, Universidad Veracruzana,
shanit 87@hotmail.com
19
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen La estadística es una disciplina que en los últimos años ha tenido una gran injerencia tanto
en los diversos campos de la ciencia como en la vida real. En particular, la estadística clásica ha sido
una de las herramientas más utilizadas en el estudio de los fenómenos aleatorios. Sin embargo, a
través del tiempo se han encontrado algunas inconsistencias en esta teoría. La estadística Bayesiana
se ha presentado como una alternativa a la estadística clásica, para la solución de los problemas
típicos estadísticos como son: la estimación, el contraste de hipótesis y la predicción. Esta teoría ha
generado un enorme interés en los últimos años y ha tenido una gran aceptación en muchas de las
áreas de la investigación científica. En la literatura en español no se ha encontrado o se ha encontrado
poco, acerca de la existencia de un software que facilite el cálculo de la inferencia Bayesiana. En
este trabajo se plantea el desarrollo de una software el cual permite hacer el cálculo de estimación,
contraste de hipótesis, y predicción, considerando el enfoque Bayesiano.
Contacto:
Alan Martín Hernández Solano, Instituto de Física y Matemáticas, Universidad Tecnológica de la
Mixteca,
alan20mhs@hotmail.com
Resumen Los planes de muestreo por variables utilizan valores continuos de una característica de
calidad, que son usados para determinar sobre la calidad de un lote. Una extensión multivariada de
dichos planes permite aprovechar información que en otras circunstancias sería desaprovechada. El
presente póster contiene una aplicación de dicha tecnología en la evaluación de lotes de piel en el
proceso de fabricación del calzado. Las respuestas usadas son las mediciones de las pruebas de ten-
sión-elongación, que se consideran como realizaciones de una distribución normal multivariada. En el
póster se presentan ejemplos que muestran las ventajas de este enfoque. Adicionalmente se comenta
sobre posibles alternativas cuando el supuesto de normalidad multivariada no es adecuado.
Contacto:
Hugo Maruri-Aguilar, Statistics, London School of Economics,
H.Maruri-Aguilar@lse.ac.uk
20
XXII FORO NACIONAL DE ESTADÍSTICA
Alegría, Alejandro*
Resumen La búsqueda de modelos que permitan entender el funcionamiento de las relaciones que
se presentan entre los diferentes elementos que componen una red es un problema importante
en diferentes áreas del conocimiento: relaciones personales (en el trabajo, en la familia, en una
comunidad), salud (dispersión de una enfermedad), comunicación (difusión de información), entre
otras. En este trabajo se presentan algunos de los métodos estadísticos que usualmente se aplican
para modelar redes sociales, así como algunas propuestas para modelar la dinámica de las redes y
simular el comportamiento de las mismas.
Contacto:
Alejandro Alegría, UMIE, FLACSO,
alealeher@hotmail.com
Contacto:
Félix Almendra Arao, Departamento de Ciencias Básicas, UPIITA del Instituto Politécnico Nacional,
falmendra@ipn.mx
21
XXII FORO NACIONAL DE ESTADÍSTICA
Modelo de decisión empresarial de tipo binario para el caso del grupo CEMEX
Contacto:
Norma Edith Alamilla López, Instituto de Física y Matemáticas, Universidad Tecnológica de la Mixteca,
edith@mixteco.utm.mx
Resumen Los modelos de espacios de estados son una clase flexible de modelos que permiten
analizar series de tiempo que aparecen en muchas disciplinas. Frecuentemente en la medición de
contaminantes a lo largo de un periodo de tiempo se tienen observaciones que mantienen un cierto
grado de dependencia y que además presentan ciertas irregularidades en los datos, tales como la
censura debido a que el rango de medición se encuentra restringido. En esta plática se usará el
Algoritmo EM para estimar los parámetros de un modelo lineal gaussiano de espacio de estados con
observaciones censuradas por la izquierda. Se presenta un ejemplo de aplicación.
Contacto:
Francisco Julián Ariza Hernández, Estadística, Colegio de Postgraduados,
arizahfj@colpos.mx
22
XXII FORO NACIONAL DE ESTADÍSTICA
Bolívar Cimé, Addy Margarita*; Díaz-Frances Murguía, Eloísa; Ortega Sánchez, Joaquín
Resumen En la Teoría de Valores Extremos es muy importante hacer inferencias acerca de los cuantiles
de distribuciones de máximos por bloques debido a que algunas veces contribuye a solucionar pro-
blemas para la protección civil. La estimación por intervalo usual para cuantiles de distribuciones de
máximos se basa en la propiedad de asintoticidad normal de los Estimadores de Máxima Verosimilitud
(EMV) o incluso en intervalos de verosimilitud perfil para cuantiles. Para que estos intervalos resulten
recomendables se requiere que la muestra de los máximos sea al menos moderadamente grande.
Sin embargo, muchas veces se tiene un número de máximos pequeño, en este caso los intervalos
de estimación mencionados anteriormente pueden presentar dificultades en su cálculo o no cubrir
al verdadero valor del cuantil. Para evitar los problemas anteriores se podría pensar en construir
intervalos de estimación no paramétricos para cuantiles. El Bootstrap es una metodología estadística
que se puede utilizar para construir intervalos de estimación no paramétricos para cuantiles. Se ha
visto que los intervalos Bootstrap convencionales para cuantiles de distribuciones asintóticas de
máximos o de distribuciones en general no proporcionan buenos resultados en cuanto a coberturas.
Sin embargo, recientemente Ho y Lee (2005) propusieron una clase de intervalos Bootstrap para
cuantiles de distribuciones en general con buenos resultados en cuanto a coberturas. Ellos no in-
vestigaron el comportamiento de estos intervalos para cuantiles de las distribuciones asintóticas de
máximos y esto es lo que se exploró en el presente trabajo. Aquí se comparó mediante simulaciones
cómo se comportan los intervalos propuestos por Ho y Lee con respecto a los intervalos de estimación
usuales para cuantiles de distribuciones asintóticas de máximos. Principalmente se compararon las
coberturas y anchos de dichos intervalos para los cuantiles Q0,95 y Q0,99 de distribuciones asintó-
ticas de máximos considerando muestras pequeñas, moderadamente grandes y grandes (25, 50 y
100 datos, respectivamente). Entre los resultados de este trabajo se tiene la comparación de los
diversos intervalos para cuantiles de distribuciones de máximos así como las situaciones de mayor
utilidad para el uso de cada uno de ellos. Cabe señalar que se observó que los intervalos Bootstrap
propuestos por Ho y Lee son de mayor utilidad con muestras pequeñas de máximos y en situaciones
donde los otros intervalos tenían las coberturas más bajas, aunque estos intervalos Bootstrap gene-
ralmente fueron más anchos que los otros intervalos bajo estudio. Se vió también que los intervalos
Bootstrap mejoraban sus coberturas mucho más rápido que los otros intervalos cuando el tamaño de
las muestras de máximos aumentaba.
Contacto:
Addy Margarita Bolívar Cimé, Probabilidad y Estadística, CIMAT A.C.,
addy@cimat.mx
23
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Todos hemos tenido que buscar en internet información específica, ya sea para la elaboración
de una tesis, para resolver un problema en específico, sobre una enfermedad etc. Esta búsqueda puede
consumir varios días y resultar altamente tediosa. ¿Qué hay de las imágenes? Si deseamos encontrar
una imagen que incluya una figura en específico, tendremos que hacer una revisión extensa. En esta
plática, se expondrán modelos paramétricos y no paramétricos de Estadística Bayesiana para poder
clasificar grandes cantidades de información. También se expondrán algoritmos determinísticos,
llamados métodos variacionales, para la estimación de la densidad a posteriori.
Contacto:
Guadalupe Eunice Campirán García, Probabilidad y Estadística, IIMAS,
eunice_campiran@hotmail.com
Christen, J. Andrés*
Resumen Los procesos Gaussianos se usan en muchas áreas y tienen hoy en día una gran diver-
sidad de aplicaciones, que incluyen estadística espacial, series de tiempo, análisis de modelos
computacionalmente intensivos, etc. Un problema recurrente en la inferencia Bayesiana sobre los
parámetros de un proceso Gaussiano usando MCMC es la alta correlación y la verosimilitud plana
de los parámetros de la función de correlación. Normalmente las distribuciones de propuesta tienen
que ser calibradas con mucho cuidado y en general el MCMC resultante es muy difícil de poner a
punto para que se simule razonablemente bien de la distribución posterior en cuestión. Christen y
Fox (2007, sometido) presentan un MCMC autoajustable (llamado t-walk) que, siendo un algoritmo
de Metropolis-Hastings en el espacio producto de la distribución original, presenta propiedades de
adaptabilidad para obtener eficientemente muestras de la distribución objetivo en cuestión aún para
distribuciones altamente correlacionadas, multimodales, con secciones planas, etc. Presentaremos
varios ejemplos de como el t-walk puede resolver problemas en la inferencia de procesos Gaussianos,
usando diferentes funciones de correlación, a través de varias escalas y tamaños de muestra.
Contacto:
J. Andrés Christen, Probabilidad y Estadística, CIMAT,
jac@cimat.mx
24
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen El tratamiento de tablas de contingencia de Fisher puede extenderse usando las ideas de
Freeman y Halton (1951). Usando esa extensión, este trabajo plantea una prueba no paramétrica
para simetría de vectores aleatorios. La prueba se puede modificar para verificar el supuesto de
intercambiabilidad así como el de independencia.
Contacto:
Alberto Contreras, Probabilidad y Estadística, IIMAS-UNAM,
alberto@sigma.iimas.unam.mx
Contacto:
Jorge Domínguez Domínguez, Probabilidad y Estadística, Centro de Investigación en Matemáticas,
jorge@cimat.mx
25
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen En 1959, Abe Sklar demostró que existe una relación funcional única entre la distribución
conjunta de un vector aleatorio de variables aleatorias continuas (X1, . . . ,Xn) y sus marginales,
mediante funciones C : [0, 1]n -> [0, 1] que denominó cópulas. Esto es, si H es la distribución
conjunta del vector aleatorio y F1, . . . , Fn sus marginales entonces existe una cópula C tal que
H = C(F1, . . . , Fn). Este resultado ha ampliado considerablemente el catálogo de distribuciones
multivariadas, gracias a distintas familias paramétricas de cópulas, y a la posibilidad de eligir las
marginales que se deseen. Una clase importante de cópulas son las del tipo arquimediano, que se
construyen vía una función univariada o generador j de modo que la cópula se obtiene mediante
C(u1, . . . , un) = j−1(Sn k=1 j(uk)). En 1996, Maurice J. Frank demostró, bajo ciertas condiciones,
que toda la información sobre las cópulas arquimedianas está contenida en su diagonal d(u) = C(u,
. . . , u) como consecuencia de la solución convexa de la ecuación funcional de Schroder (1871).
Este resultado es relevante a la hora de estimar empíricamente una cópula arquimediana puesto que
resulta mucho más fácil estimar empíricamente su diagonal que su generador. Expondremos una
consecuencia estadística importante de lo anterior: Alsina, Frank y Schweizer (2003) publicaron una
serie de problemas abiertos entre los que se encontraba el de construir una prueba no paramétrica
de independencia haciendo uso del Teorema de Frank. Este problema ya fue resuelto por Erdely y
González Barrios (2006b).
Contacto:
Arturo Erdely Ruiz, Escuela de Actuaría, Universidad Anáhuac México Norte,
aerdely@anahuac.mx
Escarela, Gabriel*
Resumen Los datos bivariados de indemnizaciones provienen de una población que consiste dease-
gurados que pueden ser indemnizados por uno o dos tipos de beneficios cubiertos por una póliza.
En este trabajo se desarrolla un procedimiento estadístico para ajustar distribuciones de indemni-
zaciones bivariadas en presencia de variables explicativas. Esta metodología basada en verosimilitud
permite un estudio preciso sobre el tipo y el monto en la frecuencia y severidad de los dos tipos
de indemnizaciones. Se emplea un modelo logístico generalizado para examinar las probabilidades
de frecuencia, mientras que se propone una distribución de cola larga para modelar la distribución
marginal de la severidad de cada tipo de indemnización. Además, se explota el modelo de cópula para
construir la distribución conjunta de las severidades cuyas marginales tienden a estar relacionadas
ya que se tiene la hipótesis de que indemnizaciones -sobretodo altas - de un tipo de beneficio están
altamente relacionadas con indemnizaciones del otro beneficio. Se sugiere una metodología para
escoger la formulación paramétrica conjunta más adecuada y se propone un método para evaluar la
26
XXII FORO NACIONAL DE ESTADÍSTICA
bondad de ajuste de las marginales y de la distribución bivariada. Los métodos expuestos se ilustran
con el análisis de unos datos de indemnizaciones de gastos médicos observados por una aseguradora
canadiense; aquí las respuestas de interés son: gastos médicos (e.g. consultas, tratamientos, etc) y
otros (e.g. prótesis, gastos adicionales, etc.), y las variables explicativas son: edad y el factor género.
En el modelado de estos datos se hace uso de la regresión polinomial para edad en los parámetros
de las formas paramétricas; para escoger tanto el grado adecuado del polinomio como el modelo más
parsimonioso se muestra el uso del criterio BIC.
Contacto:
Gabriel Escarela, Depto de Matemáticas, UAM-Iztapalapa,
ge@xanum.uam.mx
Resumen En los últimos años, el análisis de series de tiempo de las temperaturas globales y hemis-
féricas ha generado un intenso debate contrastando dos tipos de procesos generadores de datos: raíz
unitaria y estacionariedad alrededor de una tendencia. Este trabajo aborda esta discusión utilizando
pruebas de raíces unitarias con cambio estructural para las temperaturas globales y hemisféricas y
la extiende proponiendo modelos econométricos no lineales del tipo GARCH y SETAR para el índice
Multivariado de El Niño/Oscilación del Sur. Los resultados muestran que, si bien en todas las series
analizadas se pueden distinguir tendencias y/o cambios estructurales en la media del proceso, su
varianza incondicional ha permanecido constante. Eso es, si cambio climático ya está ocurriendo,
se ha manifestado como un cambio en la media de estos procesos y no ha afectado otros momen-
tos de sus distribuciones. Adicionalmente, se cuestiona la aplicación de técnicas de cointegración
utilizadas para atribuir cambio climático a la actividad humana. Por otra parte, se muestra que en
series climáticas de frecuencia mensual o diaria, se observa que las varianzas condicionales de los
procesos no son constantes y que se presentan clusters de volatilidad similares a los que ocurren
en series financieras. Posteriormente, se muestra que cuando la serie del índice Multivariado de El
Niño/Oscilación del Sur rebasa un valor umbral, el proceso tiene una mayor memoria y persistencia.
En conclusión, los modelos de series de tiempo proveen información relevante para la toma de deci-
siones y permiten obtener mejores estimaciones del riesgo actual y futuro cuando son utilizados en
combinación con salidas de modelos físicos de clima.
Contacto:
Francisco Estrada Porrúa, Grupo de Cambio Climático y Radiación, Centro de Ciencias de la Atmós-
fera, Universidad Nacional Autónoma de México,
feporrua@atmosfera.unam.mx
27
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen En este trabajo se proponen estimadores Jackknife de las varianzas de los estimadores de
totales poblacionales que se usan en las variantes del muestreo por seguimiento de nominaciones
(MSN) planteadas por Félix-Medina y Thompson (2004) y Félix-Medina y Monjardin (2004). En el
MSN la metodología Jackknife ordinaria requiere de ajustes especiales ya que en este tipo de mues-
treo la omisión de un elemento muestreado conduce a la omisión de todos los elementos nominados
únicamente por este elemento. En particular, para la construcción de los estimadores propuestos se
usa un ajuste similar al empleado por Frank y Snijders (1994). Mediante un estudio de simulación
se observan los desempeños de los estimadores propuestos y se comparan contra los desempeños
de estimadores bootstrap y estimadores delta. Los resultados indican que en general los estimadores
Jackknife son los de desempeños más bajos, pero en algunas situaciones sus resultados son com-
parables a los obtenidos por los estimadores bootstrap.
Contacto:
Martín Félix Medina, Escuela de Ciencias Físico-Matemáticas, Universidad Autónoma de Sinaloa,
mhfelix@uas.uasnet.mx
Resumen Fernández-Durán (2004) desarrolló una nueva familia de distribuciones circulares ba-
sadas en sumas trigonométricas no negativas que permiten modelar conjuntos de datos circulares
que presentan varias modas y/o asimetría. En el presente trabajo se explica la forma en la cual es
posible llevar a cabo inferencia acerca de los parámetros de la distribución desde un punto de vista
Bayesiano a través de algoritmos MCMC transdimensionales. La metodología propuesta se ejemplifica
con la identificación de efectos calendario en series de tiempo financieras.
Contacto:
Juan José Fernández Durán, Estadística, ITAM,
jfdez@itam.mx
28
XXII FORO NACIONAL DE ESTADÍSTICA
Galván Martínez, Rosario*; Sánchez Galván, Ingrid Rosario; López Acosta, Juan Carlos
Resumen El objetivo del presente trabajo es contrastar el comportamiento defensivo de dos especies
de hormigas del género Pseudomyrmex que colonizan plantas de A. cornigera en una zona de Selva
Baja Caducifolia en Dos Ríos, Veracruz. A nivel experimental se inducieron potenciales señales quí-
micas que tuvieron efecto sobre el patrullaje de las hormigas, para ello se diseñaron tratamientos que
intentaron extraer o desencadenar dichas sustancias, cada uno de estos fue aplicado conjuntamente
con su control en un diseño pareado. Para este tipo de variable (tiempo de llegada de la 1ra hormi-
ga) estamos utilizando el modelo de Kaplan Maier para comparar las muestras con la prueba F de
Cox. Se encontró diferencias significativas para el tiempo de respuesta de las hormigas P. ferruginae
a los tratamientos en relación a sus controles. También utilizamos la t de Student para comparar
periodos de actividad de las hormigas (No. promedio de hormigas). P. ferruginae tuvo una diferencia
significativa respondiendo a los tratamientos en relación a sus controles respecto a P. gracilis. Para
manejar los datos hicimos uso del paquete SSPS 8.0 para Windows, presentamos curvas de sobre-
vivencia y tablas comparativas.
Contacto:
Ingrid Rosario Sánchez Galván, Facultad de Biología, Universidad Veracruzana,
ingra_sg@hotmail.com
Resumen El despliegue de la función de calidad (Quality Function Deployment, QFD) es una he-
rramienta de planeación que introduce la voz del cliente en el desarrollo y diseño del producto o el
proceso. A pesar de que QFD no es una herramienta nueva, sigue siendo plenamente vigente en la
literatura de calidad y planeación: mediante una búsqueda en el Citation Index de ISI Web of Scien-
cie se encontraron 50 artículos científicos cuyo título incluye la palabra QFD entre los años 2000
y 2006, y más de 150 que lo incluye como tópico. En estos artículos se presentan principalmente
aplicaciones específicas de QFD y mejoras a esta metodología. Por otro lado el modelo de Kano es
un concepto que ayuda a categorizar los atributos de calidad de un producto o servicio de acuerdo
al efecto que tienen sobre la satisfacción del cliente. En este trabajo se ve cómo reforzar la metodo-
logía QFD con el modelo de Kano, y se ve cómo estas dos herramientas hacen una buena sinergia
tanto para entender mejor las necesidades del cliente como para integrar la calidad deseada con la
calidad percibida por el cliente. Todo esto permite un mejor despliegue de la calidad y con ello una
mejor elección de las acciones a ejecutar para mejorar un proceso. La aplicación de la metodología
QFD-Kano se ilustra mediante un caso estudio donde se evalúa la calidad de la biblioteca digital
de la Universidad de Guadalajara (México). Para recabar la voz del cliente se diseñó y se aplicó un
29
XXII FORO NACIONAL DE ESTADÍSTICA
cuestionario que contempla tanto criterios de calidad de un servicio como aspectos específicos que
se deben considerar en una biblioteca digital. Además se realizaron entrevistas semiestructuradas
con personal que trabaja en la biblioteca digital y con usuarios importantes. Esta información se usó
como base para aplicar la metodología QFD-Kano.
Contacto:
Cecilia Garibay López, Matemáticas, Universidad de Guadalajara,
garibay70@yahoo.com
Contacto:
Rubén Hernández, Estadística, ITAM,
hernande@itam.mx
30
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
Flaviano Godinez Jaimes, Estadística, Universidad de Guerrero,
fgodinezj@gmail.com
Gómez, Nicolás*
Contacto:
Nicolás Gómez, Dirección de Emisión, Banco de México,
ngomez@banxico.org.mx
Resumen Las actuales líneas en el nuevo Espacio Europeo de Enseñanza Superior, establecen la
necesidad de un cambio en el sistema actual de enseñanza en el sentido de que hay que dar más
protagonismo a la capacidad y posibilidades de autoaprendizaje del alumno frente a la clásica
clase magistral. En esta línea existen numerosos estudios en aras a buscar metodologías docentes
para favorecer este autoaprendizaje. Una de estas metodologías es la conocida como trabajo con
proyectos. Ahora bien, si los alumnos aprenden la estadística por medio de proyectos se consiguen
muchos aspectos positivos: 1.- Les permitirá contextualizarla y hacerla más relevante, 2.- Reforzarán
31
XXII FORO NACIONAL DE ESTADÍSTICA
el interés, dado que el alumno es el que elige el tema. El alumno quiere resolver su problema, no
el inventado e impuesto por el profesor, 3.- Se promoverá el trabajo autónomo y el autoaprendizaje
del alumno, 4.- Aprenderán mejor qué son los datos reales, y se introducirán ideas que no aparecen
con los datos inventados: precisión, variabilidad, fiabilidad, posibilidad de medición, sesgo, etc.,
5.- Se les mostrará que la estadística no se reduce a contenidos matemáticos, 6.- El aprendizaje será
eficaz y estimulante y 7.- Mostrarán la relación entre distintas materias del currículo, fomentando la
interdisciplinaridad. Por supuesto que los alumnos deben de usar la computadora para llevar a cabo
sus proyectos, tanto para el análisis de datos con un software estadístico o con una hoja de cálculo,
como para elaborar sus informes con un procesador de texto. Pero en particular el software estadístico
comercial es costoso, es por eso importante en pensar en la utilización de software libre. Se presenta
en este trabajo el software libre denominado KYPLOT Ver. 2.0 beta 13. Desarrollado en el lenguaje
Visual Basic por Koichi Yoshioka del Instituto Qualest. Funciona a través de una hoja de cálculo muy
similar a las construidas con Excel. Entre las funciones que incluye están: manipulación de matrices,
graficación de funciones, aplicaciones de optimización lineal, opciones de análisis estadístico (muy
completo) y cálculo de integrales. Produce gráficos de alta calidad.
Contacto:
Sergio Hernández González, Facultad de Estadística e Informática, Universidad Veracruzana,
s_her_gon@yahoo.es
Gómez Grajales, Carlos Alberto*; Montano Rivas, Julia Aurora; Moncada Martínez,
Eduardo; Flores Pérez, Pedro Iván
Resumen En el mundo, la calidad de cualquier café (Coffea arabica L.), se sustenta en la interacción
entre su genética, el ambiente físico y el manejo agronómico de la finca. Estos tres factores son
fundamentales, pues la calidad del grano de café se gesta durante los nueve meses que transcurren
desde que brotan las yemas vegetativas, y hasta que el cortador arranca de la mata el café en cereza.
A partir de ese momento los seis procesos subsiguientes, tienen por finalidad conservar la calidad
original para que ésta se aprecie en la taza, transformada en bouquet, acidez y cuerpo, atributos
que conjugan el sabor (1). Para que el productor mejore su ingreso debe ofrecer al mercado un café
de alta calidad notablemente diferenciado. Este trabajo califica -cuantitativa y cualitativamente los
atributos predominantes de cada tratamiento, para que con esta herramienta el productor busque
acceder a mercados de especialidad.
Contacto:
Julia Aurora Montano Rivas, Facultad de Estadística, Universidad Veracruzana,
julmontano@uv.mx
32
XXII FORO NACIONAL DE ESTADÍSTICA
González Barrios Murguía, José María*; Erdely Ruíz, Arturo; Nelsen, Roger
Resumen En este trabajo se analizan algunas pruebas de simetría para cópulas, a partir de la cópula
empírica. Se hace una comparación con otras pruebas conocidas y se incluyen algunas ideas para
probar la arquimedeanidad de una cópula.
Contacto:
José María González Barrios Murguía, Probabilidad y Estadística, IIMAS UNAM,
gonzaba@sigma.iimas.unam.mx
Resumen Cuando se desea realizar el análisis estadístico de un conjunto de datos, resulta de suma
importancia encontrar la distribución subyacente de los mismos. Para ello existen diversos tipos de
gráficos que pueden resultar de utilidad, dentro de ellos, el gráfico descriptivo conocido como histo-
grama sobresale por su sencillez y facilidad de realización. Se cree que los histogramas tienen sus
orígenes en el siglo XVII, en relación con los trabajos realizados por Graunt. Sin embargo, fue hasta
1926 que Sturges propuso el primer método para realizar el cálculo del número de intervalos que
deben emplearse para realizar dicho gráfico. A partir de las investigaciones realizadas por Sturges, se
han propuesto diferentes métodos alternativos para la construcción de los histogramas, siempre cui-
dando la rapidez y la sencillez que debe caracterizar el uso de esta herramienta. Sin embargo, a la
fecha no se ha llegado a un consenso acerca de cuál método es el más apropiado, o bien, para decidir
en qué casos se debe utilizar un cierto método. Incluso, los histogramas generalmente se hacen con
paquetes computacionales, los cuales no mencionan de manera explícita el método que utilizan para
construir el gráfico. El objetivo del presente trabajo es dar a conocer los distintos métodos que se han
desarrollado para decidir el número y tamaño de los intervalos, así como realizar una comparación
gráfica y numérica que permita distinguir las ventajas y desventajas que presenta cada método.
Contacto:
Claudia González De León, Actuaría, ITAM,
cgonzalezd@banamex.com
33
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Se presenta una prueba de bondad de ajuste para la distribución normal multivariada. La
estadística de prueba es el promedio de las estadísticas de Shapiro-Wilk evaluadas en las coordenadas
de la matriz de observaciones estandarizadas empíricamente. Los valores críticos se obtienen usando
una transformación de la distribución normal estándar univariada. Un estudio de simulación muestra
que esta prueba resulta ser más potente que las mejores pruebas para normalidad multivariada contra
una amplia variedad de alternativas.
Contacto:
Elizabeth González Estrada, Estadística, Colegio de Postgraduados,
eliza_ge@yahoo.com.mx
Resumen Las olas oceánicas han sido tema de estudio de matemáticos, físicos e ingenieros durante
mucho tiempo, sin embargo debido a su complejidad aún quedan muchos aspectos por investigar
sobre ellas. Uno de los mayores intereses se presenta en las olas de tormenta en mar abierto, donde
surge el planteamiento de la siguiente pregunta, ¿Cómo es la forma de este tipo de olas y de qué
manera varían en un periodo de tiempo?. Es alrededor de esta pregunta sobre la que se desarrolla
el tema de la presentación. Una manera de cuantificar el grado de alteración de las olas en un
periodo de tiempo es a través de la altura significativa, así, al dividir la duración de una tormenta
en periodos de tiempo, la altura significativa de los periodos proporciona información sobre la evo-
lución y la variación en el grado de intensidad de las olas durante la tormenta. En consecuencia,
la altura significativa juega un papel muy importante en la forma de las olas, por lo que uno de los
intereses principales es explorar de qué manera está relacionada la forma de las olas en un periodo
de tiempo con la altura significativa de ese periodo. El enfoque tradicional del estudio de olas es
mediante el análisis de la serie que representa la altura de la ola al tiempo t en un punto fijo, vista
como un proceso aleatorio. Algunas de las propiedades comúnmente estudiadas de este proceso, se
refieren a las frecuencias de la serie, su densidad espectral y estimación de distribuciones asocia-
das a características de las olas que la integran como: amplitud, periodo, valle, cresta, intensidad
de cruzado entre otras. Sin embargo no se tiene información de estudios realizados sobre tipos de
variación en la forma de las olas y su comparación con altura significativa. Aunque usualmente se
analiza la serie como un proceso aleatorio, en este caso, debido a que se tiene interés en la forma de
las olas, se requiere otro enfoque que proporcione ventajas al estudio sobre este aspecto. La teoría
de datos funcionales facilita herramientas que son de utilidad en el estudio de forma y variabilidad
de funciones, de manera que al representar el perfil de las olas como funciones, esta teoría resulta
de gran utilidad en el análisis de los datos para el objetivo propuesto. Concretamente, dada la serie
correspondiente a alturas de olas de tormenta, se presenta un análisis estadístico de la forma de
las olas que la definen tratadas como funciones. Durante el desarrollo de este análisis se plantean
34
XXII FORO NACIONAL DE ESTADÍSTICA
relaciones de interés entre la forma de las olas y características típicas asociadas a la serie de las
alturas, como son altura significativa, el comportamiento sinusoidal y supuestos de normalidad del
proceso aleatorio. Los datos utilizados en el análisis, fueron proporcionados por George H. Smith de
la Universidad de Exeter Inglaterra y corresponden a mediciones realizadas durante una tormenta
en la plataforma Alwyn en el Mar del Norte.
Contacto:
Cristina Gorrostieta, Estadística, CIMAT,
cristina@cimat.mx
Resumen En este trabajo se explora el uso de un enfoque propuesto recientemente por Gutiérrez-
Peña y Walker (2005) en la construcción de procedimientos Bayesianos objetivos para el problema
de selección de modelos. La idea consiste en ver los procedimientos paramétricos tradicionales como
problemas de decisión en los que la incertidumbre se modela de manera no paramétrica.
Contacto:
Eduardo Gutiérrez Peña, Probabilidad y Estadística, IIMAS, UNAM,
eduardo@sigma.iimas.unam.mx
Contacto:
María Guzmán Martínez, Matemáticas, UAQ,
marnezmar@yahoo.com.mx
35
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Los procesos de precios de activos con riesgo, como las acciones de empresas, los precios
del oro, el precio del petróleo o el precio de la energía, son generalmente modelados a través de
procesos estocásticos a tiempo continuo; los modelos mayormente empleados son el Movimiento
Browniano geométrico y el modelo de Black and Scholes, o bien generalizaciones de los mismos.
En el caso de los precios de energía, se deben considerarse modelos reversibles a la media, como
es el caso del proceso Ornstein-Uhlenbeck, entre otros. El modelar precios de energía eléctrica es
el objetivo del presente trabajo, los cuales poseen características que los diferencian de otro tipo de
bienes y/o servicios. Por ejemplo, en mercados en donde los precios no están regulados, se aprecia
una tendencia a permanecer estables alrededor de cierto valor, pero con una gran volatilidad causada
probablemente por factores económicos u otros factores externos; también se observa una volatilidad
en los precios que se ve reflejada en saltos repentinos a la alza (precios pico), volviendo a estabilizarse
hacia un valor promedio. De esta manera, para modelar precios de energía es necesario considerar
dos factores importantes: modelar precios pico en un proceso que además sea reversible a la media.
Para tal fin, se utiliza la transformación potencia de Yeo-Johnson (2001) aplicada a un proceso
Ornstein-Uhlenbeck (O-U), mediante la primera se modelan los precios pico y mediante la segunda
se consigue la reversión a la media. A partir de dichas transformaciones, se obtiene la función de
verosimilitud, asumiendo el proceso O-U autoregresivo de orden uno, con tiempos de observación
equidistantes, teniendo como parámetros de interés los tres parámetros del modelo autoregresivo, la
variable que representa el exponente de la función de Yeo-Johnson (se le denomina alfa) y el parámetro
del proceso O-U que representa la capacidad de reversión a la media (se le denomina lambda). Para
estimar dichos parámetros, primeramente se supone alfa fijo y se obtienen los estimadores máximo
verosímiles para los tres parámetros del modelo autoregresivo; posteriormente, ya contando con los
estimadores anteriores, se construye la función de logverosimilitud perfil de alfa, sobre la cual se
obtiene el estimador de máxima verosimilitud para alfa, empleando para ello un método numérico. El
valor de lambda queda determinado a partir de los estimadores del modelo autoregresivo. Para probar
la calidad de las estimaciones se han realizado una gran cantidad de simulaciones tomando como
valores de los parámetros, las estimaciones obtenidas al aplicar el modelo a datos reales obtenidos
del mercado de Atlanta, Canadá y que incluyen precios de cada hora del 1 de enero del 2000 al 16
de noviembre de 2005. El trabajo no se concluye aún, se siguen realizando pruebas al modelo, pues
para precios de ciertas horas del día, no se obtienen buenos resultados. Finalmente, se establecerán
comparaciones con el modelo que Barlow presentó en 2002 usando una transformación Box-Cox.
Contacto:
Hugo Hernández, Estadística, Universidad Autónoma de Aguascalientes,
hugo.hernandez@inegi.gob.mx
36
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen La exposición de seres humanos y otros entes vivos a niveles altos de contaminación es
un grave problema de salud que persiste sobre todo en grandes áreas urbanas. Según la Organiza-
ción Mundial de la Salud (WHO, 1987) niveles de ozono mayores a 100mg/m3 es causa de riesgo
para la salud. Por otro lado, se sabe que si un individuo respira en ambientes con concentraciones
mayores o iguales a 80mg/m3 de gas ozono hay una reducción en su funcionamiento pulmonar; por
consiguiente, exposiciones repetidas a estos niveles altos de ozono causan daño permanente a los
pulmones. La variación de contaminantes corresponde a varias razones, entre las mas importantes
se pueden mencionar los cambios anuales de condiciones meteorológicas y el incremento de las
diversas fuentes contaminantes. En particular, temperaturas altas junto con bajas velocidades de
viento están asociadas con observaciones altas de ozono. El propósito de este proyecto es el de pro-
poner una metodología para predecir niveles máximos diarios de ozono en presencia de la historia
la cual incluye variables atmosféricas, de tiempo y de los mismos máximos registrados. Se expone
cómo la teoría del valor extremo es un esquema conveniente para hacerlas predicciones de un nivel
peligroso a la salud al construir un modelo autorregresivo de un orden dado. Los métodos se ilustran
con el análisis de los máximos diarios de ozono registrados en el área metropolitana de Guadalajara
en el periodo 1997-2004. Aquí, la variable respuesta es el máximo diario de ozono de cada una
de las ocho estaciones de monitoreo en Guadalajara, y las variables explicativas son velocidad del
viento, dirección del viento, temperatura, humedad relativa, periodicidad y tendencia en el tiempo
y máximos pasados.
Contacto:
Lorelie Hernández Gallardo, Matemáticas, UAM-I,
heilerol@yahoo.com.mx
derecha del intervalo que contiene la mayoría de las observaciones, así como también éstos están
censurados, pues la ocurrencia de una causa no permite observar la ocurrencia de otra; además,
es común encontrar que el tiempo de ocurrencia del evento de interés no ha sido observado al fi-
nal del seguimiento de las unidades experimentales en la muestra. En este trabajo se describe un
modelo semi-paramétrico de mezclas que es capaz de acomodar las variables explicativas en las
probabilidades de ocurrencia de cada uno de los tipos de riesgo. Se presenta una generalización del
modelo de Larson y Dinse (1985), el cual consiste en modelar las probabilidades de ocurrencia de
las causas y las funciones de supervivencia condicionales para cada causa en forma separada. Se
muestra que las funciones de supervivencia condicionales pueden tener cada una la forma flexible
del modelo de riesgos proporcionales de Cox. El interés principal de este estudio es el de mostrar que
los estimadores obtenidos convergen en ley a un proceso gaussiano centrado. Se aborda primero la
existencia de los estimadores semi-paramétricos para el modelo conjunto. Posteriormente, se obtiene
una caracterización de éstos aplicando la función de verosimilitud conjunta obtenida del algoritmo
EM y por último se muestra la consistencia de éstos.
Contacto:
Angélica Hernández Quintero, Departamento de Matemáticas, UAM-Iztapalapa,
angyka302@gmail.com
Resumen Por medio de herramientas y técnicas estadísticas se ha hecho posible describir el comportamiento
que guardan algunos fenómenos naturales, sin embargo dada la complejidad en la recolección y el diseño de
experimentos, en algunos de los fenómenos es imposible tener muestras homogéneas y totalmente aleatorias
de datos, las cuales permitan aplicar las técnicas estadísticas paramétricas más comunes. Para realizar el
análisis de muestras que no siguen un comportamiento con una distribución conocida se hace uso de técnicas
no paramétricas. El presente trabajo muestra los resultados obtenidos de aplicar algunas técnicas estadísticas
no paramétricas, como es el caso de la técnica de análisis de diferencias de medianas de Mood, para el
análisis del comportamiento de la velocidad de corrosión en vigas de concreto reforzado expuestas al medio
ambiente. El objetivo es determinar estadísticamente qué factor es el que acelera la velocidad de corrosión
de las vigas bajo estudio. Los resultados muestran que las condiciones de prueba empleadas (tres diferentes
recubrimientos: 10, 15 y 30 cm., dos relaciones agua / cemento, a/c: 0.45 y 0.65 y dos lados de medición,
expuesta y resguardada a los vientos predominantes), durante el tiempo de estudio son estadísticamente
significativas en el comportamiento de la velocidad de corrosión. Presentándose velocidades de corrosión
más altas en los recubrimientos de 10 y 15 cm. principalmente con una relación a/c de 0.65. Sin embargo,
se encontró que la velocidad de corrosión en las caras expuestas de las vigas a los vientos predominantes no
es estadísticamente diferente a la presentada en las caras resguardadas de las mismas.
Contacto:
Haidie Lissette Hervert Zamora, Facultad de Ingeniería ’Arturo Narro Siller’, Universidad Autónoma
de Tamaulipas,
hhervert@gmail.com
38
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Los modelos logísticos son muy utilizados dentro de la Teoría de Respuesta al ítem, (TRI).
Estos modelos permiten estimar el nivel de un rasgo latente determinado del examinado en función de
las características de los ítems que componen el examen y de las respuestas que el examinado da a los
ítems. En el contexto de tal teoría se analiza, a partir de un conjunto de datos resultado de una aplicación
en el año 2006, un subconjunto de ítems de Matemáticas para el Cálculo, del Examen de Habilidades y
Conocimientos Básicos (EXHCOBA), examen utilizado como criterio de ingreso a nivel licenciatura en la
Universidad Autónoma de Querétaro, en particular para carreras en el área de ciencias básicas, ingenierías
y matemáticas. Se exploran los modelos logísticos de uno y dos parámetros. También se evalúa el cumpli-
miento del supuesto de unidimensionalidad, independencia local y monotonicidad, requeridos en la TRI y
la bondad de ajuste del modelo.
Contacto:
Eduardo Castaño, Fca Química Posgrado, Universidad Autónoma de Querétaro,
ecastano@uaq.mx
39
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
José de Jesús Jiménez Martínez, Estadística, Universidad Autónoma de Aguascalientes,
jimj710418@yahoo.com.mx
Resumen La fracción plasmática de plomo representa la fracción toxicológicamente activa del plomo
circulante, la cual puede atravesar la barrera feto-placentaria. A pesar de que existe evidencia de
que el plomo en sangre se asocia con una elevación del riesgo de aborto espontáneo, los resultados
publicados hasta el momento no son concluyentes. Es posible que esto se deba a que hay diferen-
cias en la susceptibilidad al efecto tóxico del plomo que es inherente al individuo. Las mujeres con
tendencia a tener una mayor fracción plasmática de plomo en sangre podrían tener un riesgo elevado
de abortar debido a una mayor proporción de plomo que puede transmitirse al feto o embrión, lo
que se reflejaría en un historial de abortos espontáneos. Preguntamos a 207 mujeres embarazadas
residentes en la Ciudad de México, quienes cursaban el 1er trimestre de embarazo, sobre su historial
de abortos espontáneos. El plomo se midió en plasma y en sangre total. La tasa de incidencia de
abortos espontáneos se definió como la proporción de embarazos previos que resultaron en aborto,
excluyendo a aquellas mujeres que no hubieran tenido embarazos previos. Los datos se analizaron
por medio de modelos de regresión de Poisson con la tasa de incidencia de abortos como la variable
resultado y la razón plomo en plasma/plomo en sangre tanto continua como categorizada en terciles
como variables predictoras. La bondad de ajuste incluye la verificación de Poissonabilidad, y no sólo
la sobredispersión. No rechazamos la distribución Poisson utilizando los resultados de dos proce-
dimientos basados en la razón varianza/media y uno más basado en las propiedades de la función
generadora de probabilidad. Se obtuvo un buen ajuste de acuerdo al diagnóstico estadístico de los
resultados de ambos modelos. Estimamos que un incremento de 0.1% en la razón entre el plomo en
plasma y el plomo en sangre total (PbP/PbS) se asoció con una incidencia de abortos espontáneos
12% mayor. Asimismo, las mujeres en el tercil superior de la razón PbP/PbS presentaron una inci-
dencia de abortos dos veces mayor que aquellas en el tercil más bajo. Concluimos que las mujeres
con una razón PbP/PbS elevada podrían estar en mayor riesgo de sufrir abortos espontáneos, lo que
podría deberse a una mayor disponibilidad de Pb que cruce libremente la barrera placentaria.
Contacto:
Héctor Lamadrid Figueroa, Centro de Investigación en Evaluación y Encuestas, Instituto Nacional
de Salud Pública,
hlamadrid@insp.mx
40
XXII FORO NACIONAL DE ESTADÍSTICA
Linares Fleites, Gladys*; Valera Pérez, Miguel ángel; Castillo Morales, Maribel;
Tenorio Arvide, María Guadalupe
Resumen Desarrollar criterios de calidad de suelos que puedan utilizarse en una evaluación objetiva de
riesgos ambientales es actualmente un reto, pero también lo es buscar procedimientos de clasificación
eficaces. En este trabajo se han analizado suelos de origen volcánico procedentes de la Sierra Nor-
oriental del estado de Puebla, México. Los tres problemas relacionados a la calidad de estos suelos
son: (1) Contenidos de materia orgánica y residuos, (2) La reacción pH del suelo, y (3) La fertilidad
natural del suelo. El objetivo es identificar las propiedades del suelo que permitan distinguir entre
suelos con Calidad Inherente (suelos con vegetación forestal) y suelos con Calidad Dinámica (suelos
de agricultura temporal). Se obtuvieron funciones discriminantes lineales y modelos logísticos para
cada uno de los tres problemas y se discuten las ventaja y desventajas de ambos procedimientos de
discriminación en estos estudios de calidad de suelos.
Contacto:
Gladys Linares Fleites, DICA-ICUAP, Benemérita Universidad de Puebla,
gladys.linares@icbuap.buap
Linares Fleites, Gladys*; Saldaña Munive, José Adrián; Ruiz Suárez, Luis G.
Resumen La Regresión Mínimo Cuadrática Parcial es una de las extensiones menos restrictivas del
modelo de Regresión Lineal Múltiple. Su flexibilidad permite utilizarla en situaciones donde existen
pocas observaciones y puede ser una herramienta de análisis exploratorio muy útil para seleccionar
variables predictoras convenientes. En el trabajo se utiliza esta herramienta con el propósito de estu-
diar asociaciones entre las emisiones de dióxido de carbono (CO2) y diversas propiedades de suelos
perturbados en el Parque Ecológico Jaguaroundi en Coatzacoalcos, Veracruz, México. Se obtienen
dos modelos, uno para la época de lluvia, con 24 muestras de suelo y 16 propiedades y otro, para
la época de seca, con igual número de muestras y 17 propiedades. En ambos modelos se destaca,
entre otros aspectos, que el porciento de nitrógeno total del suelo tiene fuerte influencia sobre la
variable respuesta (emisiones de CO2).
Contacto:
Gladys Linares Fleites, DICA-ICUAP, Benemérita Universidad Autónoma de Puebla,
gladys.linares@icbuap.buap
41
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Sin duda, los programas académicos de estadística a nivel de licenciatura enfrentan la
baja demanda en su matrícula y peor aún, la desorientación de los estudiantes que ingresan sobre la
naturaleza de sus estudios, ya que su pensamiento estadístico en los niveles de educación básica se
desarrolla con algunas deficiencias graves. La carrera de Licenciado en Estadística que ofrece la Uni-
versidad Veracruzana en México es un caso que enfrenta problemas de baja demanda, desorientación
y poca motivación del estudiante que ingresa en este programa académico. Esto último ha impactado
en elevados índices de deserción escolar. En este contexto nace el proyecto Genios de la estadística,
con el objetivo principal: motivar el aprendizaje y espíritu investigador que posee todo estadístico, a
través de juegos populares, cuyos contenidos están orientados a conceptos y áreas relacionadas con
la estadística con base a los contenidos temáticos que se abordan a nivel bachillerato. El proyecto se
visualiza en tres grandes etapas: 1) Adaptación y prueba de los juegos, 2) Implementación informá-
tica de los juegos con tecnología Web para disponibilidad en línea y 3) Despliegue de los juegos a la
comunidad usuaria para su evaluación y mejora, así como el seguimiento a usuarios interesados. Esta
información servirá para motivar entre otras cosas cambios en la educación estadística y la implan-
tación de una campaña que promueva nuestro programa académico. Aquí se presenta la experiencia
lograda de la adaptación y prueba (primera etapa) de los juegos denominados La Oca estadística,
MUPARJI y El Retador llevados a cabo in situ con estudiantes de la Licenciatura de Estadística. El
conocimiento incorporado en los juegos se basa en los contenidos temáticos que se abordan a nivel
bachillerato. El contenido requirió la elaboración de un banco de 500 reactivos distribuidos en las
temáticas: Algebra, Computación, Estadística Exploratoria, Probabilidad y Cultura General. Estos
reactivos fueron planteados por los académicos que imparten dichas experiencias educativas.
Contacto:
Lorena López, LINAE y Cuerpos Académicos, Facultad de Estadística, Universidad Veracruzana,
lorlopez@uv.mx
Resumen La propuesta curricular de Matemáticas para secundaria (SEP, 2006) se organiza en tres
ejes temáticos: Sentido numérico y pensamiento algebraico, Forma, espacio y medida y Manejo de
la información. En este último eje temático se encuentran los conocimientos y habilidades que co-
rresponden a temas de Estadística. En el cartel se muestran, de dos modos distintos, los diferentes
tipos de gráficas estadísticas que se estudian en los tres grados de educación secundaria. El primer
modo es desde lo que se propone que estudien los alumnos de Telesecundaria en el libro del alumno
de primero y segundo grado, ejemplos de diferentes contextos utilizados en las secuencias de estudio.
42
XXII FORO NACIONAL DE ESTADÍSTICA
El segundo modo es desde lo que presentan publicaciones oficiales y se espera que la mayoría de
las personas (alumnos, profesores, padres de familia, etc.) puedan manejar. Por ejemplo, a partir
de un contexto como es: el aprendizaje de las Matemáticas a través de los resultados obtenidos por
los estudiantes de tercer grado de secundaria en la prueba EXCALE, que aplicó el Instituto Nacional
de Evaluación (INEE) en mayo y junio de 2005. Se seleccionan estos dos modos porque se conoce
por los resultados de diferentes evaluaciones (PISA 2000 y 2003; EXCALE 2005; ENLACE 2006)
que la modalidad de Telesecundaria es la que presenta bajos niveles de desempeño. El propósito es
mostrar la secuenciación que existe entre los conocimientos y habilidades de cada grado, resaltando
la importancia de la enseñanza, estudio y aprendizaje de cada uno. Así como, lo relevante de selec-
cionar cuidadosamente contextos adecuados e interesantes para los estudiantes de secundaria, y de
manera especial los de Telesecundaria, en busca de lograr contribuir a las bases de una educación
estadística adecuada para ellos.
Contacto:
Olga Leticia López Escudero, Proyecto de Matemáticas Telesecundaria, Instituto Latinoamericano
de la Comunicación Educativa,
olopez@ilce.edu.mx
Resumen En estudios observacionales, cuando se quiere efectuar una regresión múltiple, es común
el problema de la multicolinealidad. Ocurre cuando las variables independientes, están muy correla-
cionadas entre si. Esto produce problemas de estabilidad numérica en los estimadores, con errores
estándar de los coeficientes de regresión muy altos. Tradicionalmente se soluciona el problema de
tres maneras, eliminando variables, empleando regresión por cordillera, o efectuando un análisis
de componentes principales con las variables independientes. Se sostiene que con estas tres solu-
ciones hay problemas en la interpretación de los resultados. Por considerar que en la naturaleza es
común esa covaración de variables, dadas las relaciones que hay entre ellas, podemos pensar que
las poblaciones están compuestas por tipologías de variación conjunta. Estas tipologías se pueden
buscar empleando la técnica de conglomerados. De manera que se puede estudiar la relación de una
variable dependiente con las independientes, pero observando los cambios de la primera al pasar
de una tipología (conglomerado) a otra. Después de describir el problema se presenta de manera
general la metodología propuesta y se aplica a 6 ejemplos de la literatura.
Contacto:
Ignacio Méndez Ramírez, Probabilidad y Estadística, IIMAS, UNAM,
imendez@servidor.unam.mx
43
XXII FORO NACIONAL DE ESTADÍSTICA
Montano Rivas, Julia Aurora*; Vez Reyez, Antonio; Ruíz Landa, Dionicio
Contacto:
Julia Aurora Montano Rivas, Facultad de Estadística, Universidad Veracruzana,
julmontano@uv.mx
Morales, Dionicio*
Resumen En este artículo se pretende establecer si el cambio de poder, resultado de las elecciones
presidenciales en México, tiene algún efecto sobre la industria manufacturera desagregada. Mediante
el uso de series de tiempo y un modelo autorregresivo con variables ficticias se encontró que, de
las 49 ramas que integran la actividad económica de la industria manufacturera, 22 de ellas se ven
afectadas por el evento político. Los resultados mostrados por las 22 actividades indican que 3 de
ellas experimentan una contracción y 4 una expansión antes del cambio de poder; en tanto que 14 de
ellas experimentan contracción y solamente 1 presenta expansión después del cambio de poder.
Contacto:
Dionicio Morales, Facultad de Ingeniería, Universidad Autónoma de Tamaulipas,
dmorales@uat.edu.mx
44
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
Tania Moreno Zúñiga, Dpto. Matemáticas, UAM-I,
tania 8304@hotmail.com
45
XXII FORO NACIONAL DE ESTADÍSTICA
Nelson, Wayne*
Resumen Para volver a encargar un artículo en almacén, frecuentemente se usa una regla general: se
encarga suficiente para seis meses. Esto malgasta dinero. Es mejor modelar los costos de encargar, de
manejar, y de artículos (dinero ocioso) en el almacén y entonces determinar el número de artículos que
quedan cuando es apto volver a encargar y el número que se encarga para minimizar el costo total. Los
modelos ingenuos en textos no son adecuados. Esta charla describe un sistema de pedido y un modelo
mejor que hemos usado en un almacén en General Electric Co. El modelo mejor involucra: 1. Todos los
costos de encargar, manejar, almacenar, y pagar un pedido de un artículo. 2. Un modelo aleatorio de
demanda mejor que el ingenuo modelo Poisson. 3. Elección de la probabilidad que se agota el artículo
antes de que llega el pedido en proceso. Antes de poner en práctica el sistema, estimamos el dinero que
el sistema ahorraría para determinar si el sistema valdría el costo de desarrollar el software y de imple-
mentar el sistema. Para hacer esto tomamos una muestra aleatoria estratificada de distintos artículos en
el almacén, y estimamos el ahorro total para todo el almacén. El estimado del ahorro en un año fue más
que el costo de implementación, e implementamos el sistema. En la práctica el sistema redujo el costo
de operación del almacén $ 250,000 dólares anualmente.
Contacto:
Wayne Nelson, asesor, Wayne Nelson Statistical Consulting,
WNconsult@aol.com
Resumen The forecasting stage in the analysis of a univariate threshold autoregresive model, with
exogeneous threshold variable, has been developed in this paper via the computation of the so-called
predictive distributions. The procedure permits to forecast simultaneously the response and exoge-
neous variables. An important issue in this work is the treatment of eventual missing observations in
the time series involved before obtaining forecasts.
Contacto:
Fabio H. Nieto, Estadística, Universidad Nacional de Colombia,
fhnietos@unal.edu.co
46
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen En los cursos de estadística, una de las pruebas que se promueve es, sobre la media de una
distribución Normal, H0 : m0 = m1 frente Ha : m0=/ m1. Es difícil notar que, hay un detalle que dificulta
a un investigador aplicado, el uso de los métodos presentados, pero puede surgir en las discusiones
de los resultados, previas a su escritura, en problemas donde la hipótesis nula, H0, de igualdad se
rechaza según el procedimiento seguido, pero la significación estadística no refleja una diferencia
con la igualdad que sea de interés al investigador. La causa de la aparente contradicción entre la
conclusión estadística y la recomendación del investigador no está en el procedimiento de prueba,
ni en los valores que usualmente se establecen para el nivel de significación. El problema radica en
el establecimiento de las hipótesis nula y alternativa. Por ejemplo, es difícil pensar que dos tipos de
semilla tengan exactamente la misma media de producción, así que para rechazar la hipótesis nula
de la igualdad de medias, solo bastaría con tener un tamaño de muestra suficientemente grande.
Para que la prueba pueda adquirir, un sentido práctico, se debería enfocar el interés del contraste,
en probar si la diferencia de medias es menor o igual que una constante apropiada, o es mayor que
esa misma constante. De este modo, al rechazar la hipótesis nula el investigador puede con toda
naturalidad recomendar a uno de los tipos de semilla, pues la diferencia de medias es mayor que
aquella que estableció como base para la comparación.
Contacto:
Leonardo Román Olmedo García, Ciencias Básicas e Ingeniería, Universidad Autónoma Metropolitana,
leonardo olmedo@hotmail.com
Resumen El estudio de los valores extremos ha cobrado una gran importancia durante los últimos años.
La teoría de valores extremos se basa, principalmente, en dos modelos: la distribución Generalizada
de Valores Extremos (GEV) y la distribución Pareto Generalizada (GPD). En este trabajo se presenta
un análisis de la función de verosimilitud asociada con la GPD. Asimismo, se presentan sus caracte-
rísticas principales y las dificultades que implica su tratamiento estadístico, especialmente cuando
se analizan las distintas regiones que constituyen su soporte. En particular, cuando se considera el
soporte completo sin restricciones se tiene que los estimadores de máxima verosimilitud no existen.
Esta característica también se presenta para el caso de la GEV; por ello, este problema es de carácter
general para la inferencia estadística con valores extremos. En el trabajo, por último, se comentan
algunas oportunidades que tiene la estadística Bayesiana para enfrentar esta problemática.
Contacto:
Antonio Armando Ortiz Barrañón, Departamento de Estadística, ITAM,
a.ortiz.barranon@gmail.com
47
XXII FORO NACIONAL DE ESTADÍSTICA
Padrón Corral, Emilio*; Méndez Ramírez, Ignacio; Muñoz Urbina, Armando; Torres
Gomar, Manuel Antonio
Resumen La especie arbórea cirián (Crescentia alata H.B.K) es originaria de México y se extiende
desde México hasta Colombia, Perú y Brasil, se ha cultivado en el sur de Florida y California (Esta-
dos Unidos) y también se ha introducido en las Bermudas. En México se cultiva en tierra caliente,
aunque también se encuentra silvestre. Prospera en áreas abiertas tipo sabana, propia de tierras
bajas y en las selvas bajas caducifolias que cubren las serranías en suelos pedregosos, prado some-
ro. Con respecto al uso de la correlación canónica en el análisis de datos, en algunos conjuntos de
datos multivariados las variables se dividen naturalmente en dos grupos. El análisis de correlación
canónica puede entonces ser utilizado para investigar la relación entre los dos grupos (Manly, 1986).
Desde este punto de vista, el análisis de correlación canónica es una generalización de la regresión
múltiple en el cual varias variables Y son simultáneamente relacionadas a variables X. En la práctica
más de un par de variables canónicas pueden ser calculadas en un conjunto de datos. Con respecto
al objetivo del presente trabajo se encuentra el de estudiar el efecto de diferentes variables sobre el
rendimiento del cirián, para lo cual se tomó la dasometría del árbol y del fruto mediante muestreo
por conglomerados para posteriormente ser analizados mediante correlación canónica, a fin de de-
terminar aquellas variables que mas influyen sobre la producción.
Contacto:
Emilio Padrón Corral, Estadística, Universidad Autónoma de Coahuila,
epadron@mate.uadec.mx
Pérez, Sergio*
Resumen Con base en los elementos básicos de las estructuras geométricas de una familia de distri-
buciones de probabilidad, siendo los aspectos principales el teorema de proyección y un teorema de
Pitágoras generalizado de Amari (1990), se propone un método para determinar la mínima divergencia
intrínseca entre dos modelos en presencia de parámetros de ruido, la pérdida intrínseca ortogonal
(PIO). Esta se utiliza como función de pérdida para hacer inferencias Bayesianas sobre el parámetro
de interés. Para probar hipótesis puntuales se propone una solución basada en el criterio Bayesiano
de referencia (CBR) de Bernardo (1999) y Bernardo y Rueda (2002), pero utilizando como función
de pérdida la PIO para el parámetro de interés. Como ejemplo, se trata brevemente el modelo lineal
general y se aplican los resultados a un procedimiento de comparación múltiple de medias.
Contacto:
Sergio Pérez Elizalde, Estadística, Colegio de Postgraduados,
sergiop@colpos.mx
48
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Uno de los intereses principales al estudiar series temporales es la predicción, el enfoque
mas usado para la construcción de intervalos de predicción es el enfoque de Box Jenkins propuesto en
1976, sin embargo, el comportamiento de este enfoque depende del supuesto de normalidad de los
errores. El bootstrap es un método no paramétrico que ha ganado popularidad en las últimas décadas
en un gran número de aplicaciones. En series temporales pueden distinguirse dos enfoques en el
uso de bootstrap: a) el llamado enfoque de bloques y b) el enfoque basado en el modelo. El enfoque
basado en modelos aplica el bootstrap a los residuos obtenidos a partir de ajustar a la serie temporal
un modelo adecuado que pretende absorber la estructura de dependencias de la serie temporal. En
el presente trabajo se hace uso de una representación alternativa de los modelos ARMA(p,q) presen-
tada por G. M. Ljung y G. E. P. Box (1979) a fin de obtener varios tipos de residuales. Mediante un
estudio de simulación se compara el comportamiento del bootstrap aplicado a los distintos tipos de
residuales y su comportamiento es comparado con la técnica Box Jenkins y bootstrap paramétrico
bajo diferentes tamaños de muestra, distintos horizontes de predicción bajo errores con distribución
normal y no normal. Bajo las condiciones mencionadas se muestran los resultados obtenidos, mos-
trando ventajas y desventajas de los enfoques estudiados.
Contacto:
Jesús Pérez Juárez, Estadística, Colegio de Postgraduados,
perezjj@colpos.mx
Resumen En el presente trabajo se trata de extender algunas pruebas clásicas que se realizan fre-
cuentemente en estadística cuando un conjunto de datos viene de la distribución normal al caso
cuando éstos vienen de una distribución normal asimétrica. El caso más simple es cuando se quiere
probar si el parámetro de localización toma un valor particular. Otros casos considerados incluyen
el de comparación de medias de dos poblaciones normales sesgadas mediante pruebas de razón de
verosimilitudes generalizadas. La potencia de estas pruebas se compara con otros procedimientos
de prueba existentes mediante simulación. Por último se estudia el problema de mezclas con dos
componentes normales asimétricas y se realiza un estudio de potencia.
Contacto:
Paulino Pérez, Estadística, Colegio de Postgraduados,
perpdgo@colpos.mx
49
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
Armando Ramos Díaz, Estadística, COLPOS,
ramosdiaz@colpos.mx
Resumen El problema de contaminación atmosférica por emisiones de SO2 y PM10 sigue siendo
común en ciertas ciudades con actividad industrial. El monitoreo de los niveles de concentración de
estos contaminantes y la aplicación de medidas preventivas para no permitir niveles altos de éstos
son actividades cotidianas que realizan los organismos gubernamentales de ecología. Para lograr que
dichas medidas preventivas sean pertinentes, es necesario contar con pronósticos adecuados de los
contaminantes SO2 y PM10. Esta presentación mostrará cómo se construyó un modelo de pronóstico
automático de los mencionados contaminantes en la ciudad de Salamanca.
Contacto:
José Elías Rodríguez Muñoz, Matemáticas, Universidad de Guanajuato,
elias@cimat.mx
50
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
José Elías Rodríguez Muñoz, Matemáticas, Universidad de Guanajuato,
elias@cimat.mx
los Hogares (ENIGH) 2004 con respecto a otros estudios que sean realizados con respecto a los
ingresos. Finalmente, al ya tener un ajuste a una o varias variables relevantes, tal mecanismo podría
coadyuvar al análisis de predicciones, cotas de error en variables de interés, etc. Así, en este trabajo
se brinda un marco de comparación entre el modelo beta generalizado del segundo tipo, el modelo
lognormal y el modelo unificado de la familia de valores extremos con la finalidad de analizar cual
de ellos tiene el mejor nivel de ajuste a la distribución de los máximos de los ingresos corrientes en
la ENIGH 2004.
Contacto:
José Luis ángel Rodríguez Silva, Dirección de Desarrollo de Procesos Estadísticos, Instituto Nacional
de Estadística, Geografía e Informática,
angel.rodriguez@inegi.gob.mx
Resumen El análisis espectral del electroencefalograma permite la evaluación de una persona para deter-
minar si es una persona normal o presenta algún tipo de problema cerebral, basándose en los ritmos elec-
troencefalográficos. Hasta la fecha, en México se utiliza la Transformada de Fourier para la obtención de la
densidad espectral, violando supuestos inherentes al método. Por lo que se pretende mostrar los problemas
relacionados con el uso de la Transformada de Fourier y se proponen posibles soluciones con la Transformada
de Ondeleta. Además de definir de manera neurológica el cálculo de la densidad espectral.
Contacto:
Verónica Saavedra Gastélum, Posgrado de Ingeniería, UAQ,
veroclessg@yahoo.com.mx
Resumen La diabetes junto con las enfermedades del corazón y el cáncer son las tres principales
causas de muerte en México y forman parte de los problemas graves de salud pública, junto con la
obesidad. Actualmente en nuestro país la enfermedad de la diabetes es un asunto preocupante, ya
que hasta hace 31 años las principales causas de muerte en nuestro país eran la diarrea, la neumonía,
y las infecciones respiratorias agudas. La diabetes ocupaba el séptimo lugar, mientras que ahora la
diabetes mellitus es una de las principales causas de muerte en nuestro país. Para ser más exacto
a la fecha ocupa el tercer lugar de mortalidad en nuestro país. México se encuentra ubicado a nivel
mundial como uno de los países con el mayor número registrado de casos de diabetes, y se espera
un incremento a futuro de este número de casos de personas diabéticas. En 1995 México ocupaba
el décimo lugar con casos de diabetes, pero se espera que para el año 2025, ocupará el séptimo con
10 millones de personas diabéticas. Esto se podría afirmar con el siguiente dato, en México por cada
52
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
Bárbara Emma Sánchez Rinza, Computación, Benemérita Universidad Autónoma de Puebla,
brinza@cs.buap.mx
Resumen Para la gran mayoría de las mujeres, el embarazo sigue una evolución bastante normal.
Sin embargo, algunas pueden enfrentarse con dificultades y desafíos inesperados en un embarazo de
alto riesgo, es por eso en este trabajo se hace un análisis de los factores de riesgo que tienen mayor
peso en nuestra vida actual para llegar a tener un embarazo de este tipo. Tener un embarazo de alto
riesgo significa que la mujer tiene mayores posibilidades de complicaciones debido a las condiciones
de su embarazo, a su estado médico o su estilo de vida, o como consecuencia de factores externos.
Muchas veces, las complicaciones son inesperadas y pueden producirse sin que haya indicios previos.
Otras veces, hay ciertos factores de riesgo que aumentan la posibilidad de que haya problemas. La
identificación de los riesgos potenciales de un embarazo es una parte importante del cuidado previo
al mismo. Algunas mujeres tienen más posibilidades de tener un embarazo de alto riesgo debido a
sus antecedentes genéticos, trastornos médicos existentes, su estilo de vida o factores que pueden-
desarrollarse con el embarazo. Este trabajo, por la variedad de factores que influyen en un embarazo
de alto riesgo, se hizo con la colaboración de médicos ginecólogos.
Contacto:
Barbara Emma Sanchez Rinza, COMPUTACION, BUAP,
brinza@cs.buap.mx
53
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Two situations for combining multiple time series information are considered. Firstly, we
propose a method to combine decennial census data with annual vital statistics information in order
to estimate annual population data for geographic areas of the Metropolitan Zone of Mexico City.
Secondly, we combine the annual disaggregated series with a set of official targets about future
population growth rates, and propose a mechanism to evaluate the compatibility of the demographic
goals with the annual estimated data. We conclude that the targets established in the population
program are not attainable and make a compatible proposal of future population growth rates.
Contacto:
José Eliud Silva Urrutia, Estadística, Carlos III de Madrid,
jsilvaurrutia@hotmail.com
Resumen En este trabajo se compararon las pruebas asintóticas para no-inferioridad de Blackwelder,
Farrington-Manning, Bohning-Viwatwongkasen, Hauck-Anderson, la prueba de razón de verosimilitudes
y dos variantes de estas pruebas, en base a sus niveles de significancia y a sus potencias reales. La
prueba de Farrington-Manning es la que resultó tener la mejor aproximación del nivel de significancia
real al nominal para tamaños de muestra entre 30 y 100 y para los 3 límites de no-inferioridad mas
frecuentemente utilizados en la práctica. Además, la potencia de la prueba de Farrington-Manning
resultó muy similar a las potencias de aquellas pruebas con buena aproximación del nivel de signi-
ficancia real al nominal.
Contacto:
David Sotres Ramos, Estadística, Colegio de Postgraduados,
sotres.davida@kendle.com
Resumen Muchos estudios con pacientes diabéticos tienen como objetivo evaluar tratamientos y otras
formas de intervención que aseguren un control apropiado de la enfermedad. Un buen marcador de
control glucémico es la concentración de hemoglobina glucosilada en sangre (HbA1c), por lo que
resulta de interés el identificar y evaluar los factores y condiciones que pueden afectarla favorable
o desfavorablemente. Para la evaluación de un programa de tipo social a nivel nacional, se estudió
54
XXII FORO NACIONAL DE ESTADÍSTICA
Contacto:
Belem Trejo Valdivia, Dirección de Evaluación de Programas y Bioestadística, Instituto Nacional de
Salud Pública,
bvaldivia@insp.mx
Resumen En el análisis de datos de contaminación ambiental debido a metales pesados, como plomo,
mercurio y arsénico, surgen problemas debido a la presencia de datos no detectados, es decir, datos
censurados por la izquierda. Las limitantes en los instrumentos de medición, en las condiciones y
en los protocolos de muestreo generan este tipo de datos. Muchos estudios refieren a la distribución
lognormal como un modelo apropiado para las concentraciones de metales pesados en mantos freá-
ticos y acuíferos, sin embargo los procedimientos y manuales más comunes para el análisis de este
tipo de datos se realizan bajo un enfoque no paramétrico o empírico. En este trabajo se proponen
procedimientos paramétricos para la comparación de concentraciones medias de contaminantes, ba-
sada en un modelo de regresión dummy, la función de verosimilitud total y los intervalos de confianza
aproximados de Wald. El algoritmo EM es de gran utilidad en el manejo de los datos no detectados.
También se presenta una alternativa mediante modelos mixtos, para el caso de factores y covariable
aleatorias implícitos; y por último una introducción al análisis de tendencias para datos en función del
tiempo o el espacio, mediante el análisis de regresión. Finalmente se ejemplifican estas propuestas
con información obtenida de agencias de protección ambiental y artículos científicos.
Contacto:
Fidel Ulín Montejo, Estadística, Colegio De Postgraduados,
fidel@colpos.mx
55
XXII FORO NACIONAL DE ESTADÍSTICA
Vences, José*
Contacto:
José Vences, Instituto Nacional de Estadística, Geografía e Informática,
Jose.Vences@inegi.gob.mx
Resumen Most methods of cluster analysis use within/between criteria to evaluate cluster solutions.
For example, Ward’s method minimizes the variance within clusters while maximizing the variance
between. Recently, it has been proposed to evaluate existing cluster solutions based on distributional
assumptions (von Eye, 2006). In this paper, results from a simulation study are presented in which
the following variables were varied: 1. Base probability model: homogeneous Poisson and normal,
2. Shape of cluster: spherical and ellipsoid, 3. Correlation between clusters: from 0.0 to 0.4, in
increments of 0.1, 4.Type of data distribution: Normal; uniform; logarithmic; inverse Laplace trans-
formed; cube root transformed, 5. Method of clustering: Ward’s method, complete linkage, average
linkage, McQuitty’s method, median linkage, centroid method, 6. Sample size, N: from 70 to 150,
in increments of 20, 7. Number of variables: from 3 to 7, in increments of 1, 8. Cluster Size (taken
from the simulation results), 9. Number of Clusters: from 2 to 9, in increments of 1, 10. Relation
to expectancy: more versus fewer cases in a cluster (taken from the simulation results). Variables 6
56
XXII FORO NACIONAL DE ESTADÍSTICA
-10 were used as covariates. Dependent measure was the probability of a cluster. ANOVAs showed
that Cluster Size had the biggest effect, followed by Relation to Expectancy and the Number of
Variables. With only one exception, all interactions with Relation to Expectancy were significant. In
addition, results showed that about 25% of the clusters contain fewer cases than expected under
either probability model. It is concluded that density centers do not necessarily contain more cases
than expected from the perspective of a probability model, and that non-normal and non-uniform
data result in the most extreme clusters.
Contacto:
Von Eye Alexander, Psychology, Michigan State University,
voneye@msu.edu
57
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Seis Sigma es una metodología que surge en México alrededor de 1998 y va tomando fuerza
hacia el año 2000. Se ostenta como una metodología de solución de problemas críticos, aplicando el
método científico. Las organizaciones la pueden adoptar, para lograr un liderazgo duradero en el negocio
y un desempeño de primer nivel en un ámbito global. De ahí es que grandes y medianas empresas en
México muestran interés por conocer y aplicar seis sigma en su organización. Dentro de la Metodología
Seis Sigma se integran una diversidad de conocimientos estadísticos y humanos, razón por la cual, CIMAT
decide incursionar en el tema aprovechando su potencialidad, liderazgo y su experiencia en estadística,
motivando un fortalecimiento en la capacidad institucional del Centro y promoviendo la extensión de
su oferta de formación de recursos humanos de alto nivel. Así mismo Seis Sigma se integra como una
nueva área en las actividades de investigación y desarrollo tecnológico del Centro.
El propósito de esta plática es dar a conocer un panorama global de cómo se ha venido desarrollando
la iniciativa de la Metodología Seis Sigma en México, los casos de éxito, los fracasos y finalmente la
tendencia del uso de la Metodología Seis Sigma hacia un futuro. Toda esta perspectiva desde la visión
del CIMAT y su interacción con empresas mexicanas.
Resumen Se discute por medio de ejemplos dos problemas que surgen en el análisis de experimentos
analizados con modelos lineales generalizados, a saber: la correlación entre estimadores de los efectos
y el supuesto de tamaño de muestra grande. El primer problema puede producir que un efecto no signi-
ficativo parezca significativo porque un efecto significativo lo jale, mientras que con tamaños de muestra
relativamente pequeños se puede producir el problema de que el modelo ni siquiera se consiga ajustar
a los datos. Una solución que se propone para ambos problemas es el análisis Bayesiano el cual, entre
otras cosas, produce probabilidades posteriores de que los efectos sean significativos, que no dependen
de la correlación entre los estimadores ni del supuesto de muestra grande.
58
XXII FORO NACIONAL DE ESTADÍSTICA
Resumen Las cartas de control son una herramienta poderosa para monitorear procesos. Generalmente
sus límites de control son calculados usando parámetros que son estimados a partir de muestreos del
proceso durante un período base (Fase I). Durante la Fase II del esquema de monitoreo, los estadísti-
cos basados en nuevas muestras son comparadas con los límites de control para monitorear cambios
especiales en el proceso. La mayoría de los estudios teóricos para evaluar el desempeño de las cartas
de control durante la Fase II se basan en el supuesto de que los parámetros son conocidos. Ignorando
que la estimación tiene un efecto en el desempeño de las cartas.
Además durante la Fase I no se dispone de una carta de control para estar evaluando el desempeño
del proceso, y cada vez que hay un cambio mayor en el proceso es necesario volver a iniciar la Fase I.
Esto en general es un problema en el control del proceso en tiempo real, pero es sumamente crítico en
los procesos en los que se obtiene datos lentamente y en los procesos donde se hacen corridas cortas.
De tal forma que resulta casi imposible cubrir la Fase I para poder calcular los límites y tener una carta
de control.
En este trabajo se ve que las cartas de control derivadas desde la perspectiva Bayesiana corrigen estos
y otros problemas de las tradicionales cartas de control, ya que incorporan en forma natural la incerti-
dumbre sobre la estimación de los parámetros del modelo, consideran pequeñas variaciones naturales
en los procesos y además, incorporando en forma adecuada la información a priori, se elimina la ne-
cesidad de la Fase I. Todo esto se ilustra derivando las correspondientes versiones Bayesianas para las
tradicionales cartas de control tipo Shewhart.
Experimentación Estadística:
Una herramienta útil para mejora de productos.
Dos aplicaciones en la industria en México
Resumen Se presentan dos casos de estudio de la industria mexicana en donde se mejoran pro-
ductos con el uso de experimentación estadística; específicamente se utilizan diseños factoriales,
además el primer caso ilustra un ejemplo de experimentación secuencial. En ambos casos la
característica de calidad de interés no se puede medir con un instrumento de medición idóneo. Y
también en ambos casos se utiliza como variable de respuesta los rangos.
59
XXII FORO NACIONAL DE ESTADÍSTICA
Notas
60
XXII FORO NACIONAL DE ESTADÍSTICA
61
XXII FORO NACIONAL DE ESTADÍSTICA
62
XXII FORO NACIONAL DE ESTADÍSTICA
63
XXII FORO NACIONAL DE ESTADÍSTICA
64
XXII FORO NACIONAL DE ESTADÍSTICA
65
XXII FORO NACIONAL DE ESTADÍSTICA
66
XXII FORO NACIONAL DE ESTADÍSTICA
67
XXII FORO NACIONAL DE ESTADÍSTICA
68
XXII FORO NACIONAL DE ESTADÍSTICA
69
XXII FORO NACIONAL DE ESTADÍSTICA
70
XXII FORO NACIONAL DE ESTADÍSTICA
71
XXII FORO NACIONAL DE ESTADÍSTICA
72