Академический Документы
Профессиональный Документы
Культура Документы
*Nota: Los conceptos e ideas presentados aquí, han sido casi enteramente publicados en
revistas arbitradas o en el libro Ecological Niches and Areas of Distribution.
Los métodos ENM y SDM son a un tiempo de muy grande importancia teórica y
fundamental, y de gran valor práctico. Sin embargo aún están en desarrollo, y
subsisten muchas dudas sobre qué método es "mejor", sobre la miríada de detalles
sobre su calibración y verificación, y finalmente sobre la interpretación de los
resultados.
Así, el objetivo de esta sección es presentar los elementos teóricos y conceptuales que
permiten escoger un algoritmo adecuado al problema e interpretar correctamente los
resultados. Los principales problemas se refieren a: Entender la naturaleza de los
espacios E y G y su relación. 2) Contar con una hipótesis sobre los factores que
determinan las áreas potenciales y ocupadas. 3) Entender las relaciones entre
los métodos de SDM/ENM y los factores causales que explican las distribuciones. En
las secciones siguientes se presentan algunos resultados sobre estos temas, aún
en investigación activa.
SDM y ENM
En la literatura existe un debate, hasta cierto grado semántico (Elith & Leathwick,
2009; Franklin, 2009), sobre el nombre correcto para la actividad de
modelar áreas de distribución. Se usan los términos environmental niche
modeling (ENM), species distribution modeling (SDM), habitat preference modeling, y
varios otros. El punto importante a recordar no es tanto el nombre (aunque un mal
nombre confunde y un nombre acertado clarifica las cosas), sino el concepto de que
se trata. Cuando se intenta modelar el área ocupada GO, lo natural es hablar de SDM. Si
se intenta modelar las áreas potenciales GI o A, lo cual esencialmente implica localizar
en la geografía las regiones favorables a la especie (o sea, contenidas en su nicho
fundamental existente, o aquellas en el nicho realizado, pero que ocurren en otras
regiones no ocupadas) entonces lo lógico sería usar el término ENM. En la mayor
parte de la literatura estas distinciones no se hacen y los términos ENM y SDM se
consideran sinónimos.
Dejando a un lado los problemas semánticos, el interesado en estudiar nichos
o áreas debe tener claras tres cosas: 1) Existen al menos tres clases de nichos
Grinnelianos (el fundamental, el fundamental existente y el realizado) 2) Existen al
menos tres áreas de interés (la ocupada, la potencial y la invadible), y 3) Modelar
nichos no es igual a modelar áreas, al menos por la obvia razón de que los nichos son
subconjuntos de E y las áreas son subconjuntos de G.
ENMs or SDMs?
El concepto “Modelo de Nicho Ecológico” engloba dimensiones que no podemos
considerar (ni medir!) en las metodologías actuales. Un término que no tiene esta
restricción es “Modelo de Distribución de Especies” (en adelante, MDE).
Esto solo es semántica! pero los revisores de artículos la tienen muy en cuenta!
La Dualidad de Hutchinson
Diagrama BAM
La literatura ecológica ha establecido desde hace muchas décadas (Grinnell, 1917;
Good, 1931; Udvardy, 1969) que el área de distribución de una especie, en un tiempo
dado, es el resultado de una combinación de factores, tres de los cuales son de
particular importancia y se ilustran en el diagrama de abajo, llamado el diagrama BAM
(Soberón y Peterson, 2005), y que es una representación abstracta
del espacio geográfico G:
En otras palabras, el área ocupada Go es la parte del mundo que cuenta con
condiciones ambientales y bióticas favorables y que ha estado accesible a la especie.
El área invadible GI es una zona con condiciones ambientales y bióticas favorables,
pero no accesible a la especie (existencia de barreras, falta de tiempo para
expandirse...).
Las definiciones heurísticas del área ocupada e invadible se pueden formalizar desde
al menos dos perspectivas: una probabilística, enfocada a su estimación, y
otra ecológica, orientada a definir A, B y M en términos de procesos poblacionales
fundamentales. Estas dos perspectivas son complementarias y entenderlas ayuda a
interpretar bien los resultados.
Punto práctico. Es muy común, en ENM/SDM, confundir las tres áreas Go, GI y A, ya
que es asunto aún debatido si la salida de un algoritmo de modelación de nicho se
aproxima a una u a otra. En el extremo, cuando se usan datos de presencias y
ausencias verdaderas y algoritmos de regresión, uno está aproximando Go. Sin datos
de ausencias verdaderas, diferentes algoritmos y configuraciones BAM, un algoritmo
puede producir estimaciones más aproximadas a A (Jimenez-Valverde et al., 2008;
Soberon & Nakamura, 2009).
Definición por operaciones de conjuntos del
área ocupada y del área invadible.
El diagrama BAM
Definición por operaciones de conjuntos del
Mundo Clásico. El caso más frecuente. Existen zonas del mundo inaccesibles pero
adecuadas, y zonas accesibles pero inadecuadas. La mayor parte de las especies que
probablemente se trate de modelar son ejemplos de este caso.
Todas las ausencias tienen una sola causa (medio ambiente inadecuado).
Las presencias se deben a un único factor, por lo que todos los errores
de comisión se deberían a una pobre estimación de un factor para el cual
existen datos (variables ambientales).
En este escenario Go = A y los métodos basados en presencias solas harán un
buen o mal trabajo de estimar ambas zonas por igual.
Todas las ausencias tienen una sola causa (la incapacidad de dispersarse).
Las presencias se deben a un único factor, por lo que todos los errores
de comisión se deberían a una pobre estimación de un factor para el cual no
existe información (la dispersión).
En este escenario A contiene a Go y los métodos basados en presencia solas, en
el mejor de los casos, proveerán de una estimación más o menos completa
de A.
Los problemas de Mundo de Wallace representan un reto MUY DIFICIL para
cualquier algoritmo de ENM.
Probabilidades y el BAM
Basado en Soberon y Nakamura, Elith & Phillips, Phillips Y Dudik
2) Se está en el ambiente z.
El conjunto de pixeles para los cuales p(Y=1|x) > u donde u es un cierto valor umbral,
es Go. Vemos entonces que p(Y=1|x) viene siendo el Santo Grial de la persona
interesada en modelar el Área de Distribución.
Cuando se cuenta solamente con datos de presencias, estimar p(Y=1|x) es muy difícil.
De hecho es imposible sin recurrir a hipótesis y/o datos auxiliares. Aplicando el
teorema de Bayes se llega a una ecuación que es fundamental en la teoría de SDM, que
es la Ecuación (1):
Mundo Clásico
Mundo de Hutchinson
Mundo de Wallace
Definiciones
Definiciones relacionadas con el espacio G, e ilustradas en la figura de abajo.
Área Invadible (símbolo GI): La región del planeta en donde, además de condiciones
scenopoéticas favorables, existe un ambiente biótico adecuado para la especie.
G-espacio: Una región del planeta, expresada como una retícula en un sistema
de información geográfica. Un espacio G tiene una extensión (México,
Norte América el Hemisferio Occidental...) y una resolución (tamaño de las celdas en
la retícula. Por ejemplo, en grados, 1 grado, 1/2 grado, 1/4 de grado... o en km de lado,
1 km, 10 km...).
Región de Accesibilidad (símbolo M). Una región del planeta que la especie ha
podido "muestrear", en el sentido de haber sido accesible a propágalos, dispersores,
individuos migrantes, durante un cierto periodo de tiempo.
Definiciones relacionadas con GIS
Definiciones relacionadas con los datos
Datos de no-presencia
Pseudoausencias: Son datos generados por algún método que pretende simular
la información de ausencias estrictas, por ejemplo, se toman al azar de la región G
pero con la restricción de estar a una distancia d de la presencia más cercana. Esto
genera puntos con más densidad lejos de las zonas donde se han observado los
puntos. Su uso es muy poco frecuente, ya que hay toda clase de
problemas teóricos con su generación. GARP los genera al azar.
Nicho Realizado (Símbolo NR): Lo que queda del nicho fundamental existente
después de las interacciones con especies competidoras, parasitas, depredadores, etc.
Son los puntos azules del diagrama de abajo.
1. Las recomendaciones.
Si tiene ausencias utilice métodos de regresión. Si no cuenta con
ausencias, utilice Maxent o GARP.
Si su especie es un caso claro Wallaciano, de una especie que nunca ha
podido muestrear más ambientes que los favorables, probablemente
sea preferible no modelarla, en cualquier caso, sea explícito respecto a
esta situación.
Defina biológicamente su área de referencia M, en la duda,
generalmente de tamaño mayor que el esperado de Go.
La región M debe contener todos los puntos conocidos de ocurrencias
de las especie, esto es, no deben usarse cotas "políticas"
Distinga bien qué tipo de salida da su algoritmo: probabilidades, índices
de similitud, pertenencia a conjuntos...
¿Qué datos debo incluir?
Tres clases de datos:
Los formatos que se utilizan para representar los datos climáticos son frecuentemente
tipo raster, y el usuario debe tener la capacidad de procesarlos utilizando software de
GIS. ArcGIS, Idrisi, e incluso DIVA_GIS permiten transformar entre formatos de raster,
como .asc o grid.
What is clear, however, is that many options exist. The requirements for a useful
algorithm include the following:
In this guide, we present three niche modeling algorithms in detail: Maxent, GARP and
Bioclim. GARP and Maxent perform similarly (Peterson et al. 2008) (contra Elith et al.
2006), are both powerful in characterizing ecological niches, have both been applied
widely, and often yield complementary results. This latter point is apparent in that
while GARP may err on the side of producing overly broad results, Maxent often errs
on the side of overfitting, so the two together provide a quite-useful
counterpoint (Papeş and Gaubert 2007). In the following modules, then, we treat
requirements regarding data input, model calibration strategies, model evaluation
strategies, and many other topics in niche modeling.
Maxent
1. Que hace Maxent y cómo. Qué calcula. Los detalles de esta sección se
encuentran en el documento al pie (Las Salidas de Maxent). Maxent es un
algoritmo cuya teoría esta sumamente bien entendida (Elith et al. 2011,
Phillips y Dudik, 2008) y que en la práctica ha demostrado dar buenos
resultados. Sin embargo es un método que tiende a "abrazar" mucho los datos.
Esto es, es mejor para "interpolar" entre puntos de ocurrencia que para
predecir áreas no observadas. Abajo se incluye el documento tutorial de
Maxent escrito por su autor, S. Phillips, y otro documento con prácticas
sugeridas sobre el uso de Maxent.
2. Qué parámetros tiene. En la tabla de la derecha se comentan los
principales settings de Maxent.
3. Salidas. Sentido de Raw y Logistic. La salida cruda de Maxent es una medida
de similitud de los ambientes en cada pixel a los pixeles donde la especie ha
sido observada. Podría considerarse como una aproximación a la distribución
potencial. Para cualquier retícula realistamente grande, los valores del raw
output de Maxent son muy pequeños (deben sumar a uno sobre todos los
elementos de la retícula). En cambio, bajo el supuesto de que se puede asignar
un valor conocido de probabilidad de observación a los pixeles llamados
"típicos", se considera que la salida logística de Maxent es una aproximación a
la verdadera probabilidad de presencia. El usuario debe decidir cuál es ese
valor de probabilidad típica. Maxent asigna un default de 0.5. No se recomienda
cambiarlo. El segundo documento incluido abajo es una explicación más
detallada de las salidas de Maxent.
4. Maxent y Point Processes. Publicaciones muy recientes muestran
matemáticamente que Maxent es esencialmente equivalente a un proceso
de estimación Puntual de distribución de Poisson con los puntos del
background adecuadamente ponderados. Sugerimos consultar los artículos de
Fithian & Hastie (2012) y Royle et al. (2012) incluidos abajo.
5. FCF = Frequently Commited Fuckups.
1. Confundir la salida legista con la salida cruda.
2. Usar la salida cruda desde el valor más chico.
3. No saber asignar un umbral para decidir si Y=1.
4. Usar como salida la "imagen"( el .jpg) del mapa de Maxent.
6. Recomendaciones.
1. Explorar los efectos de cambiar los defaults.
2. Usar la salida logística.
3. Usar como umbral de probabilidad la mínima de los puntos de
ocurrencia (Least Observed Value Threshold).
4. Aprender a manejar archivos .asc de ArcMap.
Parámetros de Maxent
Sugerencias para experimentar
Esta opción es útil para una visualización rápida de las formas de las respuestas, pero
no son substituto de un análisis detallad por Jacknife.
Esta opción es muy útil, ya que permite un análisis de la contribución de cada variable
a las características finales del modelo (Peterson y Cohoon, 1999). Las gráficas de
salida son particularmente informativas.
Output format
Como se describe en el documento anexo (abajo), la opción de
salida logística representa un intento de estimar la probabilidad de presencia en cada
pixel, bajo un supuesto simplificador representado por el parámetro llamado "default
prevalence", que se asume igual a 0.5. La salida cruda es un estimado de la
probabilidad de estar en un pixel x, dado que se observó a la especie. Las salidas
crudas y logísticas tienen una relación monotónica, pero no lineal. La salida
acumulativa se usa muy poco.
Se usa generalmente la salida tipo "asc" que puede ser importada por un SIG.
Auto features
GARP
1. Qué hace GARP y cómo. Qué calcula.
GARP (Genetic Algorithm for Rule Production) es un algoritmo genético que encuentra
regiones del mapa que son similares a las de los puntos de entrenamiento. Funciona
poniendo a "competir" algoritmos radicalmente diferentes (dos versiones de una caja
bioclimática, una regresión log-linear, que usa como ceros datos del background, las
llamadas "reglas atómicas" y en algunas versiones, un método de clasificación llamado
e-balls) para clasificar las presencias (observadas) y las ausencias (inventadas con las
muestras del background). El resultado es una combinación de reglas lógicas que
describen diferentes combinaciones de los algoritmos que replican más
correctamente las presencias y las seudoausencias. El método balancea de manera
diferente los errores de omisión (clasificar como ausencias los datos de presencias) y
los de comisión (clasificar como presencias datos del background). Los errores de
omisión son mucho más graves en SDM/ENM que los de comisión, por lo que
distinguirlos es una de las cualidades más importantes de GARP.
GARP genera soluciones estocásticamente por lo que es indispensable correr al menos
unas n > 100 simulaciones por conjunto de datos para luego superponerlas y obtener
un numero entero (entre 0 y n) que describe el grado de consenso del algoritmo para
identificar regiones similares a las de las ocurrencias y disimilares al "background". El
resultado de n corridas de GARP se puede usar para mapear y desplegar la predicción
sobre qué tan similares son las zonas de la región de referencia a aquellas donde la
especie fue observada. GARP no da "probabilidades" de ningún tipo, sino un índice de
que tan favorables son los ambientes a los requerimientos de la especie.
2. Parámetros y defaults. Se recomienda:
4. Recomendaciones
Abajo se anexa una descripción detallada de la forma de usar GARP escrita por A. T.
Peterson
Bioclim en DIVA-Gis
Un paquete de software muy fácil de usar es el llamado DIVA-GIS, que contiene una
buena cantidad de herramientas para depurar y organizar los datos, así como una
implementación del método llamado Bioclim, el más simple que existe (simple porque
es fácil de entender y visualizar, porque no es afectado por el "área de referencia" y
porque se puede programar hasta en Excel).
Usaremos como ejemplo una mariposa mexicana, Baronia brevicornis. Los datos de
presencias fueron obtenidos de la REMIB, y la fuente original es la Colección de
Lepidopteros del Instituto de Biología de la UNAM
Name: B_brevicornis
Longitude: 18.5
Latitude: 49
Name: B_brevicornis
Longitude: 19
Latitude: 48.7
La tabla se importa a DIVA-GIS como un "shape file" de puntos, y los puntos se ven
en E y en G como se ilustra abajo.
3) Se procede a correr el modelo, el cual es una simple "caja" rectangular que rodea
los puntos extremos (el rectángulo amarillo en la figura).
1) Usar Bioclim sin constatar primero que los datos de presencias no tengan
tendencias en el espacio E. En otras palabras, Bioclim no debe usarse cuando los
puntos de presencia en E tienen correlaciones.
2) Creer que los números que Bioclim asigna a los puntos del espacio son
"probabilidades".
Métodos Estadísticos
Cuando la investigadora es tan afortunada (o aplicada) para contar con datos de
ausencias estrictas (como los de la tabla de abajo), se pueden aplicar métodos de
regresión para estimar el Santo Grial, que es la probabilidad de presencia
condicionada al ambiente: p(Y=1|z). Los datos de ausencias estrictas son series de 1 y
0 (asociadas a las coordenadas, lo cual permite obtener los parámetros ambientales).
La modelación de este tipo de datos se conoce desde hace mucho tiempo, empezando
con el método más simple, que es el modelo lineal, pasando por el modelo logístico, los
modelos lineales generalizados (GLIM), los modelos aditivos generalizados (GAM) y
los árboles de regresión en sus diversas variantes. Una revisión reciente de estos
métodos se encuentra en Franklin, 2009.
Del cual sale de forma obvia la probabilidad de la ausencia, puesto que ambas suman
1. El más simple modelo para ajustar la probabilidad de presencia es modelo lineal
(ecuación 2), que prácticamente nunca se usa, entre otras cosas, porque no está
acotado, y podría dar valores de probabilidad menores que cero o mayores que uno .
El termino épsilon representa errores normalmente distribuidos con media cero y
variancia 1.
En el GLIM se ajusta la serie de unos y ceros como función de los datos ambientales
utilizando el “link” logit, con una distribución de errores binomial.
En un GLIM, se presupone un modelo para los datos (el modelo logístico en el caso
anterior). Cuando el énfasis del problema está puesto en reproducir los datos de
manera muy justa, sin preocuparse por la extrapolación, se pueden utilizar métodos
no paramétricos (que no suponen un modelo específico). Uno de los más populares es
el llamado GAM (Generalized Additive Model). En un GAM se ajusta la siguiente
combinación lineal (ecuación 4):
Las funciones f(zi) son ajustes de tipo “smoothers” a la vecindad de cada dato. Esto es,
se interpola una función empírica descriptiva (polinomios de 2, 3 u superior orden) u
otras, sin absolutamente ninguna pretensión teórica más allá que la de reproducir de
manera lo más justa posible la estructura observada de los datos. Los GAMs suelen
proporcionar ajustes muy buenos a datos existentes, y es posible (dependiendo del
software usado) reproducirlos o transferirlos a conjuntos de datos nuevos, por
ejemplo, fuera de la región donde se entrenaron los puntos, o con climas diferentes.
Sin embargo estos métodos son extremadamente sensitivos a extrapolaciones. O sea, a
transferir las predicciones a combinaciones ambientales fuera de las utilizadas para
entrenar el modelo.
FCF
. . . (2)
. . . (3)
. . . (4)
ROCs y AUCs. Una de las principales herramientas utilizadas para validar ENM/SDM
es la llamada Receiver Operating Characteristic (ROC), una curva que describe la tasa
de identificación correcta de presencias (sensitivity, en las y) contra la tasa de falsas
alarmas (1-specificity, en las x). Cuando se obtienen estos números para un rango de
valores de umbral (para decidir si un punto se debe calificar como ausencia o
presencia), se traza la ROC, que es la línea roja en la figura de abajo. La línea azul es la
que se obtendría si para diferentes valores del umbral se utilizara un clasificador
enteramente aleatorio. La idea de la ROC a su vez da origen al estadístico llamado AUC
(Area Under the Curve), que es el área total bajo la curva roja. Un clasificador aleatorio
tiene una AUC de 0.5. Un muy buen clasificador tiene un área muy cercana a 1 (o a
cero, sorprendentemente!). El estadístico AUC fue desarrollado originalmente para
describir el desempeño de aparatos de radar. A despecho de ser un estadístico de uso
casi universal en la literatura de ENM/SDM, la AUC tiene muchos problemas serios
(Austin, 2007; Lobo et al. 2007; Peterson et al. 2008). Entre otros:
Recomendaciones:
1. Siempre:
Depure los datos de ocurrencias sobre la base de información de
expertos.
Documente explícitamente los archivos de autoridades taxonómicas.
Utilice métodos estandard de georeferenciamiento de datos
Defina explícitamente las áreas de referencia G y M.
Seleccione conscientemente y documente las razones para elegir las
áreas de referencia G y M.
Documente el workflow o "marcha" del análisis (o sea, para cada
especie, documente los valores de parámetros y settings de los métodos
usados).
Documente las variables usadas, las proyecciones, fuentes de los datos,
fuentes de las variables ambientales.
Documente explícitamente la salida utilizada.
2. Procure:
Utilizar el algoritmo adecuado a sus datos. Si tiene datos de ausencias,
utilizar regression trees, o GAMS o GLIMs. Si tiene pocas (< 10 puntos)
presencias, GARP. Si tiene un número relativamente alto (30< n < 500)
de presencias, Maxent.
Si tiene más de 500 puntos distintos para una especie, considere
"adelgazar" la muestra para evitar sobre-modelación.
No sobredefinir el problema usando "muchas" capas ambientales
Tener clara la configuración BAM de su especie. En particular, tenga
mucho cuidado con problemas tipo Mundo de Wallace.
Si hay puntos suficientes, valide usando ROC parcial.
En la duda, explicar, documentar, repetir.
3. Evite:
1. Puntos de ocurrencia. Los datos que se deben de usar son los datos
primarios. Los datos secundarios (por ejemplo, provenientes de Atlas) no
deben ser utilizados en ENM/SDM ya que incluyen en general errores e
imprecisiones muy difíciles de corregir.
1. Control de calidad de los datos de ocurrencia.
1. La nomenclatura debe ser consistente respecto a un concepto
taxonómico, y debe de existir una razonable certidumbre sobre
las identificaciones de los ejemplares. Lo anterior implica la
participación de una autoridad en la taxonomía del grupo en
cuestión.
2. La georreferenciación de los puntos debe hacerse de acuerdo a
un sistema internacional estandarizado (Wieczorek et al. 2004).
La CONABIO tiene un manual de georeferenciacion y el proyecto
MANIS tiene otro, llamado biogeomancer. Se puede usar
cualquiera de los dos como referencia de prácticas
estandarizadas de georeferenciación.
3. La resolución de las georreferencias (su radio de incertidumbre)
Definiciones
Definiciones relacionadas con el espacio G, e ilustradas en la figura de abajo.
Área Invadible (símbolo GI): La región del planeta en donde, además de condiciones
scenopoéticas favorables, existe un ambiente biótico adecuado para la especie.
G-espacio: Una región del planeta, expresada como una retícula en un sistema
de información geográfica. Un espacio G tiene una extensión (México,
Norte América el Hemisferio Occidental...) y una resolución (tamaño de las celdas en
la retícula. Por ejemplo, en grados, 1 grado, 1/2 grado, 1/4 de grado... o en km de lado,
1 km, 10 km...).
Región de Accesibilidad (símbolo M). Una región del planeta que la especie ha
podido "muestrear", en el sentido de haber sido accesible a propágalos, dispersores,
individuos migrantes, durante un cierto periodo de tiempo.
Definiciones relacionadas con GIS
Datos de no-presencia
Pseudoausencias: Son datos generados por algún método que pretende simular
la información de ausencias estrictas, por ejemplo, se toman al azar de la región G
pero con la restricción de estar a una distancia d de la presencia más cercana. Esto
genera puntos con mas densidad lejos de las zonas donde se han observado los
puntos. Su uso es muy poco frecuente, ya que hay toda clase de
problemas teóricos con su generación. GARP los genera al azar.
Bibliografía
Anderson, R. P., D. Lew and A. T. Peterson. 2003. Evaluating predictive models
of species' distributions: Criteria for selecting optimal models. Ecological
Modeling 162:211-232.
Colwell, R. K. and T. F. Rangel. 2009. Hutchinson's duality: the once and future
niche. Proceedings of the National Academy of Sciences USA 106:19644-
19650.
Jiménez-Valverde, A., J. M. Lobo and J. Hortal. 2008. Not as good as they seem:
the importance of concept in species distribution modelling. Diversity and
Distributions 14:885-890.
Li, W., Q. Guo and C. Elkan. 2011. Can we model the probability of presence of
species without absence data? Ecography doi: 10.1111/j.1600-
0587.2011.06888.x
Openshaw, S. 1984. The Modifiable Areal Unit Problem. Geo Books, Norwich.
Papes, M. and P. Gaubert. 2007. Modelling ecological niches from low numbers
of occurrences: assessment of the conservation status of poorly known
viverrids (Mammalia, Carnivora). Diversity and Distributions 13:890-902.
11:00-11:15 Break
3:00-4:00 ¿De dónde vienen los datos? Ocurrencias, ambientes (Enrique Martínez)
11:00-11:15, Break
12:15-13:15 Ejemplos de aplicaciones interesantes. Lira & Manthey (2014), Martínez-
Meyer et al (2013), Gaikwad et al 2011
Para cualquiera de nosotros resulta claro que algunas especies solo se encuentran
en determinados ambientes a los cuales se han adaptado a lo largo de miles de
años. Así por ejemplo, existen especies que solo se presentan en climas templados,
mientras que otras solo se encuentran en lugares cálidos y húmedos.
Verano, 2011
1. PROGRAMAS Y DATOS COMPLEMENTARIOS
1.1 Instalación de DIVA-GIS
DIVA-GIS, en su versión 5.7, debe ser descargado del sitio web http://www.diva-
gis.org o directamente desde http://www.diva-gis.org/down.htm.
NOTA: En caso de que por alguna razón no tenga acceso a servicio de red de
banda ancha, tanto los programas, como los datos complementarios pueden ser
proporcionados previa solicitud al siguiente correo: mgamez@uv.mx
Aún cuando este mapa de manera preliminar nos permite ubicar las colectas, no es
útil para obtener información ambiental adicional.
La razón de hacer lo anterior es que la base de datos rellena estos campos con el
número 99 cuando carece de información original.
2.4. Creación de encabezados de campo
Esta operación es relativamente sencilla y consiste escribir el nombre de cada campo,
es decir de cada columna de información. Para ello simplemente agregue un reglón en
blanco antes del primer reglón y llene cada columna con los siguientes encabezados
en mayúscula:
Oprima el cuadro Input File (archivo de entrada) y localice el archivo de texto que creó
anteriormente. Al hacerlo aparecerá la siguiente pantalla:
Si el aspecto es similar al mostrado al anterior oprima Apply (aplicar). En caso
contrario existe un error que deberá ser corregido.
Una vez hecho lo anterior, aparecerá en el programa una pantalla mostrando los datos
de presencia:
Si oprime la herramienta Identify feature (identificar atributo) y posteriormente
cualquier punto, aparecerá una ventana mostrando todos los datos del ejemplar
colectado
Ahora añada el archivo destvd250kg.shp ubicado el c:\mapas\División política.
Después de esto el mapa tendrá el siguiente aspecto:
3.2. Creación de mapas de distribución potencial para el presente.
Para crear el mapa de distribución potencial presente (basado en datos climáticos
válidos para el periodo de 1950 a 2000), Emplearemos utilidad Ecological Niche
Modeling (Modelación de nicho ecológico) mismo que aparece en la barra de
herramientas como una mariposa de color naranja.
Primeramente oprima el icono para activar esta función:
Lo que hace el programa mediante este procedimiento es, calcular los valores de 19
variables climáticas para cada lugar de colecta, estimar su nicho climático (conjunto de
condiciones en las que se desarrolla la especie) y a partir de este nicho, buscar sitios
donde existen condiciones similares y en los que la especie puede, potencialmente,
estar presente.
En este sentido el programa le asigna a cada celda (cuadrado que representa un área)
dos valores posibles: a) inadecuado, cuando las condiciones no son propicias para la
especie y b) adecuado, cuando las condiciones son similares al nicho estimado y en las
cuales la especie puede potencialmente prosperar.
Recuerde que cuando se instaló el programa, se hizo lo mismo con los datos
complementarios del clima. La primera pantalla de la herramienta Ecological Niche
Modeling pregunta sobre el conjunto de datos que será empleado en el análisis; para
el caso de la distribución presente deberá emplearse el conjunto de datos climáticos
worldclim_2-5m:
Como en algunos casos los archivos de colecta contienen información de varias
especies, deberemos activar la opción Many Classes y seleccionar el campo SPP que
corresponde a las especies:
Cuando haga lo anterior el programa mostrará la lista de especies que están
registradas:
Ahora oprima la pestaña Predict de la ventana. Introduzca los valores que se
muestran en la imagen en los recuadros MinX, MaxX, MinY y MaxY. Con ello le
pedimos al programa que calculara datos entre las longitudes 118.5º y 85.5 º oeste y
las latitudes 12.5 º y 35 º Norte. Confirme que esté seleccionada la opción Same as
input para que las áreas correspondan al clima del año 2000 (presente). En el
recuadro One class seleccione la especie para la cual requiera construir el mapa:
Finalmente oprima Output e introduzca el nombre que se le dará al archivo. Es
recomendable usar el nombre de la especie seguido por la palabra PRESENTE.
Oprima Guardar, con lo cual se cierra la ventana. Finalmente oprima Apply para
que el programa inicie el procedimiento. Éste puede llevar varios minutos,
dependiendo de la cantidad de datos y la velocidad del procesador. Por ello es
importante no interrumpir el proceso.
El mapa de distribución potencial tiene el siguiente aspecto:
Las zonas grises corresponden a las zonas inapropiadas para la especie y las
rojas son las apropiadas. El mapa es un conjunto de celdas o cuadros que
representan valores; en este caso, las celdas grises corresponden a 0 (cero) y los
rojos a 1 (uno). Las zonas blancas son zonas con valores nulos a los que
usualmente se les asigna un valor de -9999. Esta información aparentemente
irrelevante, resulta ser de gran importancia para análisis de cambios a través del
tiempo.
Una Breve Guía Didáctica sobre MaxEnt
Por Steven Phillips, AT&T Research
Esta guía didáctica da una introducción básica para el uso del MaxEnt, programa para
el modelado de la distribución geográfica de las especies en base a la máxima
entropía, escrito por Steven Phillips, Miro Dudik y Rob Schapire, con el apoyo de los
laboratorios de investigación de AT&T, la Universidad de Princeton y el Centro para la
Biodiversidad y Conservación del Museo Americano de Historia Natural. Para más
detalles sobre la teoría del modelado en base a máxima entropía, así como sobre la
descripción de los datos empleados y los tipos principales de análisis estadísticos
usados aquí, vea:
Comenzando
Descargando
La corrida produce múltiples archivos de salida, de los cuales el más importante para
analizar su modelo es un archivo html llamado “bradypus.html”. Parte de este archivo
proporciona los índices para las otras salidas, como esto:
Mirando una predicción
Para ver otras salidas (más interesantes) que pueda haber en bradypus.html,
activaremos un par de opciones y correremos nuevamente el modelo. Presione el
botón “Make pictures of predictions” (“Hacer una imagen de las predicciones”), luego
haga clic en “Settings”, y escriba “25” en la entrada “Random test percentage”
(“Porcentaje de prueba aleatorio”). Luego, presione nuevamente el botón “Run”. Luego
de completada la corrida, el archivo bradypus.html contiene una imagen como esta:
La imagen usa los colores para indicar la probabilidad que las condiciones son
adecuadas, el rojo indica una alta probabilidad de condiciones adecuadas para la
especie, verde indica las condiciones típicas de aquéllos lugares donde la especie se
encuentra, y sombras más tenues de azul indican una baja probabilidad de
condiciones adecuadas. Para el caso de Bradypus, vemos que las condiciones
adecuadas predichas como altamente probables abarcan la mayor parte de las tierras
bajas de Centroamérica, las tierras bajas húmedas del noroeste de Sudamérica, la
cuenca del Amazonas, islas del Caribe y gran parte de la foresta Atlántica en el sureste
de Brasil. El indicado es un archivo de imagen (.png) al cual Usted puede simplemente
hacerle clic (en Windows) o abrir en la mayoría de los programas de procesamiento
de imágenes. Si Usted quiere copiar estas imágenes o si quiere abrirlas con otro
programa, encontrará a los archivos .png en el directorio llamado “plots” que ha sido
creado como una salida durante la corrida.
Los puntos de prueba son una muestra aleatoria tomada de las localidades de
presencia de la especie. La misma muestra aleatoria es usada cada vez que Usted corre
Maxent sobre el mismo conjunto de datos, a menos que Usted seleccione la opción
“random seed” en el menú de configuración. De modo alterno, datos de prueba
alternos para una o más especies pueden proveerse en un archivo aparte, dándole el
nombre de “Test sample file” (“Archivo de muestra de prueba”) en el menú de
configuración.
Formatos de salida
Maxent sustenta tres formatos de salida para los valores del modelo: crudo,
cumulativo y logístico. Primero, la salida cruda la constituye el modelo exponencial de
Maxent per se. Segundo, el valor cumulativo correspondiente a un valor crudo de r es
el porcentaje de la distribución de Maxent cuyo valor crudo es al menos r. La salida
cumulativa se interpreta mejor en términos de la tasa de omisión predicha: Si
configuramos un umbral cumulativo de c, la predicción binaria resultante tendrá una
tasa de omisión de c% sobre las muestras deducidas a partir de la misma distribución
de Maxtent y podremos predecir una tasa de omisión similar para muestras deducidas
a partir de la distribución de la especie. Tercero, si c es el exponencial de la entropía
de la distribución de Maxent, entonces el valor logístico correspondiente a un dato
crudo de r es c·r/(1+c·r). Esta es una función logística, porque los valores crudos son
una función exponencial de las variables ambientales. Los tres formatos de salida
están relacionados de manera monótona, pero están a escalas diferentes y tienen
diferentes interpretaciones. La salida por defecto es logística, lo cual es más fácil de
conceptualizar: Proporciona un estimado entre cero y uno de probabilidad de
presencia. Note que la probabilidad de presencia depende de detalles del diseño de
muestreo, tales como el tamaño de la parcela y (para organismos altamente móviles)
tiempo de observación; la salida logística estima la probabilidad de presencia
asumiendo que el diseño de muestreo es tal que las localidades de presencia típicas
tienen una probabilidad de presencia de alrededor de 0,5. La imagen antes expuesta
del modelo de Bradypus usa el formato logístico. Comparativamente, se obtiene la
siguiente imagen cuando se usa el formato crudo:
Note que hemos usado una escala logarítmica para los colores. Una escala lineal
proporcionaría una imagen mayormente azul con unos pocos píxeles rojos (Usted
puede verificar esto deseleccionando “Logscale pictures” en el menú de configuración)
pues el formato crudo típicamente le otorga valores relativamente altos a un pequeño
número de lugares – lo cual puede pensarse como un artefacto de la salida cruda dada
por una distribución exponencial. Al emplear el formato cumulativo se obtiene la
siguiente imagen:
Como en el caso de la salida cruda, hemos usado una escala logarítmica para colorear
la imagen para resaltar las diferencias entre los valores más bajos. La salida
cumulativa puede ser interpretada como una predicción de las condiciones adecuadas
para la especie por arriba de un umbral en el rango aproximado de 1-20 (o del
amarillo al naranja en ésta imagen), dependiendo del nivel de omisión predicho que es
aceptable para la aplicación.
Análisis estadístico
El “25” que introdujimos en el “random test percentage” le indica al programa que
debe escoger de manera aleatoria y apartar el 25% de los registros de muestras para
usarlos en la prueba. Esto permite al programa efectuar algunos análisis estadísticos
simples. La mayor parte de los análisis empleados usan un umbral para hacer una
predicción binaria, estando las condiciones adecuadas por arriba de dicho umbral y
las inadecuadas por debajo. La primera gráfica muestra como la omisión de prueba y
la de entrenamiento así como el área predicha varían con la escogencia del umbral
cumulativo, como se vé en la siguiente gráfica:
Aquí vemos que la omisión sobre las muestras de prueba se ajusta muy bien a la tasa
de omisión predicha, la tasa de omisión para los datos de prueba de la distribución de
Maxent por sí misma. La tasa de omisión predicha es una línea recta, definida por el
formato de salida cumulativo. En algunas situaciones, la línea de la tasa de omisión se
ubica por debajo de la línea de omisión: Una razón común para ello es que los datos de
prueba y aprendizaje no sean independientes, por ejemplo si éstos derivan de los
mismos datos de presencia autocorrelacionados espacialmente.
La siguiente gráfica nos muestra la curva operada por el receptor (ROC, por sus siglas
en inglés) tanto para los datos de entrenamiento como para los de prueba, mostrada
abajo. También se proporciona el área bajo la curva (AUC, por sus siglas en inglés)
ROC; si hay datos de prueba disponibles, el error estándar del AUC para éstos se darán
posteriormente en la página web.
Las líneas azul y roja serán idénticas si Usted usa los mismos datos para el
entrenamiento y para la prueba. Si Usted divide los datos en dos porciones, una para
el entrenamiento y otra para la prueba, es normal que la línea roja (entrenamiento)
muestre una mayor AUC que la línea azul (prueba). La línea roja (entrenamiento)
muestra el “ajuste” del modelo a los datos de entrenamiento y es la auténtica prueba
de la capacidad que tienen los modelos de predecir. La línea turquesa muestra lo que
Usted esperaría si su modelo no fuese mejor que el azar. Si la línea azul (la línea de
prueba) se ubicase por debajo de la línea turquesa, entonces esto indicaría que su
modelo se desempeña peor de lo que lo haría un modelo aleatorio. Mientras más cerca
se encuentre la línea azul del tope superior izquierdo, mejor será el modelo para
predecir las presencias contenidas en la muestra de prueba de los datos. La siguiente
es una buena referencia de inicio para obtener información más detallada sobre las
estadísticas relacionadas con las AUC: Fielding, A.H. & Bell, J.F. (2007) A review of
methods for the assessment of prediction errors in conservation presence/ absence
models. Environmental Conservation 24(1): 38-49. Dado que nosostros contamos
solamente con datos de presencia y no con datos de ausencia, “fractional predicted
area” (“el área fraccionada predicha” o la fracción del total del área de estudio
predicha presentes) es empleada en lugar de la tasa mayormente usada (la fracción de
ausencias predichas presentes). Para profundizar en la discusión sobre esta
alternativa, vea el artículo aparecido en Ecological Modelling mencionado en la
primera página de esta guía. Es importante notar que los valores de las AUC tienden a
ser mayores para especies con rangos estrechos en relación al área estudiada descrita
por los datos ambientales. Esto no necesariamente indica que los modelos sean
mejores; por el contrario, este comportamiento es un artefacto de las estadísticas de
las AUC.
Si los datos de prueba están disponibles, el programa automáticamente calcula la
significancia estadística de la predicción, usando una prueba binomial de omisión.
Para Bradypus, esta da:
Para información más detallada sobre la estadística binomial, vea el artículo aparecido
en Ecological Modelling arriba mencionado.
¿Cuáles variables importan más?
Una aplicación natural del modelado de la distribución de especies es contestar la
pregunta de ¿cuáles son las variables más importantes para la especie cuya
distribuciónes está siendo modelada? Hay más de una manera para contestar esto;
aquí delinearemos las maneras posibles en las cuales Maxent puede ser usado para
ello.
Mientras se está entrenando al modelo Maxent, podemos rastrear cuáles son las
variables ambientales que contribuyen en mayor medida al modelo. Cada paso del
algoritmo de Maxent incrementa la ganancia del modelo mediante la modificación del
coeficiente para una única característica; el programa asigna el incremento en la
ganancia a la(s) variable(s) ambiental(es) de las cuales depende dicha característica.
Haciendo una conversión a porcentajes al final del proceso de entrenamiento,
obtenemos la siguiente tabla:
background,-
61.775,6.175,60.0,100.0,10.0,0.0,747.0,55.0,24.0,57.0,45.0,81.0,182.0,239.0,300.0,232.
0
background,-
66.075,5.325,67.0,116.0,10.0,3.0,1038.0,75.0,16.0,68.0,64.0,145.0,181.0,246.0,331.0,2
34.0
background,-59.875,-
26.325,47.0,129.0,9.0,1.0,73.0,31.0,43.0,32.0,43.0,10.0,97.0,218.0,339.0,189.0
background,-68.375,-
15.375,58.0,112.0,10.0,44.0,2039.0,33.0,67.0,31.0,30.0,6.0,101.0,181.0,251.0,133.0
background,-
68.525,4.775,72.0,95.0,10.0,0.0,65.0,72.0,16.0,65.0,69.0,133.0,218.0,271.0,346.0,289.0
Regularización.
El parámetro “multiplicador de regularización” (“regularization multiplier”) ubicado
en el panel de configuración influye el nivel de enfoque o cuan cercanamente se ajusta
la distribución de salida obtenida. Un valor menor que el valor por defecto de 1,0
producirá una distribución de salida más localizada la cual se ajusta estrechamente a
los registros de presencia dados, pudiendo ser un ajuste excesivo (ajustándose tan
cercanamente a los datos de entrenamiento que el modelo no generaliza bien para
identificar los datos de prueba independientes). Un multiplicador de regularización
mayor producirá una predicción más extendida, menos localizada. Intente cambiar el
multiplicador y examine las imágenes producidas y los cambios en las AUC. Como
ejemplo, configurando el multiplicador a tres hace que la siguiente imagen muestre
una distribución mucho más difusa que la presentada anteriormente:
El potencial de ajustar en exceso se incrementa en la medida que la complejidad del
modelo se incrementa. Primero intente configurar el multiplicador con un valor muy
bajo (i. e. 0,01) con el conjunto de características por defecto para ver un modelo
altamente ajustado en exceso. Luego intente usar el mismo multiplicador de
regularización únicamente con características cuadráticas y lineales.
Haciendo proyecciones
Un modelo entrenado con un conjunto de capas ambientales (o archivo SWD) puede
ser “proyectado” al aplicársele otro conjunto de capas ambientales (o archivo SWD).
Las situaciones en las cuales se requiere de proyecciones inclyen el modelado de la
distribución de las especies bajo las condiciones climáticas cambiantes, la aplicación
de un modelo de distribución nativa a una especie invasora para explorar el riesgo de
invasión en área geográficas diferentes, o simplemente evaluar el modelo bajo un
conjunto de localidades de prueba con la finalidad de efectuar análisis estadísticos
más profundos. Aquí vamos a llevar a cabo una proyección con un objetivo muy
simple: Elaborar una cuadrícula en formato ASCII y su figura asociada como salida
cuando las muestras y el fondo están en formato SWD.
bradypus_variegatus.csv
bradypus_variegatus_samplePredictions.csv
El primero de éstos se produjo cuando los datos de fondo son dados en formato SWD y
el segundo se produce en todos los casos. Asegúrese que Usted dispone de datos de
prueba (por ejemplo, configurando el porcentaje aleatorio de prueba en 25);
estaremos evaluando las salidas de MaxEnt usando los mismos datos de prueba que
usó Maxent. Primero, iniciamos R e instalamos algunos paquetes (asumiendo que
estas es la primera vez que lo estamos usando) y entonces los cargamos escribiendo
(o pegando):
install.packages("ROCR", dependencies=TRUE)
install.packages("vcd", dependencies=TRUE)
library(ROCR)
library(vcd)
library(boot)
A través de ésta sección usaremos texto azul para mostrar los códigos y comandos de
R y verde para mostrar las salidas de R. Seguidamente nos dirigimos hacia el
directorio donde están las salidas de MaxEnt, por ejemplo:
setwd(“c:/maxent/tutorial/outputs”)
Ahora podemos poner los valores de la predicción en el formato requerido por ROCR,
el paquete que usaremos para hacer algunos análisis ROC y genere la curva ROC:
Call:
boot(data = testpp, statistic = AUC, R = 100)
Bootstrap Statistics :
original bias std. error
t1* 0.8677759 -0.0003724138 0.02972513
boot.ci(b1)
dados los siguientes cuatro estimados – vea la sección de recursos al final de ésta guía
para referencias que definen y comparan estos estimados.
Intervals :
Level Normal Basic
95% ( 0.8099, 0.9264 ) ( 0.8104, 0.9291 )
Level Percentile BCa
95% ( 0.8064, 0.9252 ) ( 0.7786, 0.9191 )
Aquellos que estén familiarizados con el uso de las reiteraciones notarán que aquí
estamos reiterando solamente los valores de presencia. Podríamos también reiterar
los valores de fondo, pero los resultados no cambiarían mucho, dado que hay un gran
número de valores de fondo (10000).
fpr = perf@x.values[[1]]
tpr = perf@y.values[[1]]
maxsum = 0
for (i in 1:length(perf@alpha.values[[1]])) {
sum = tpr[[i]] + (1-fpr[[i]])
if (sum > maxsum) {
maxsum = sum
cutoff = perf@alpha.values[[1]][[i]]
index = i
}
}
mykappa(cutoff)
Recursos de R
http://www.math.ilstu.edu/dhkim/Rstuff/Rtutor.html
MODELO DE DISTRIBUCIÓN GEOGRÁFICA POTENCIAL CON EL MÉTODO DE
SOBREPOSICIÓN DE CAPAS
Miriam Alejandra Zavalza Ávila, Luis Ángel Hernández Martínez y Ulises
Romero Méndez
ÍNDICE
Obtención y preparación de datos de GBIF..................................................3
Obtención y preparación de datos de presencia........................................ ..3
Convertir datos de presencia a shapefile usando ArcMap 10.2....................7
Convertir datos de presencia a shapefile usando QGIS 2.4....................... 10
Obtención de datos de presencia de CONABIO.........................................13
Unir varios shapefiles en un solo archivo usando QGIS 2.x....................... 14
Unir varios shapefiles en un solo archivo usando ArcMap 10.2................. 15
Obtención y preparación de datos de terreno.............................................16
Datos de relieve.......................................................................................... 16
Máscara de corte........................................................................................ 18
Recortar el MDE usando SAGAGIS 2.1.................................................... 18
Derivar Aspecto y Pendiente a partir de un MDE en SAGAGIS 2.1.......... 20
Recortar el MDE usando ArcMap 10.2....................................................... 21
Derivar Aspecto y Pendiente a partir de un MDE en ArcMap 10.2............. 23
Otros datos de terreno................................................................................ 26
Conversión de shapefiles a capas raster usando SAGAGIS 2.1...............28
Conversión de shapefiles a capas raster usando ArcMap 10.2.................. 30
Obtención y preparación de datos climáticos............................................. 33
Unir los mosaicos en SAGAGIS 2.1.......................................................... 36
Unir los mosaicos en ArcMap 10.2............................................................. 37
Modelado en Maxent 3.3.3k........................................................................39
Modelado en DIVAGIS 7.5.........................................................................43
Modelado por superposición aditiva en ArcMap 10.2................................. 49
Extracción de atributos ambientales y análisis de correlación....................51
Reclasificación y sobreposición aditiva de capas raster en ArcMap 10.2...56
1
Obtención y preparación de
datos de presencia.
Para modelar el nicho potencial de una especie se requiere contar con la
geolocalización precisa de individuos o poblaciones en el espacio real. Los
datos de presencia pueden encontrarse en distintos formatos y fuentes, así
como con grados variables de calidad e información adicional.
6. Aparecerá una lista con los registros de ocurrencias. Dar clic en el botón
“Download”.
5
9. El archivo que contiene la información necesaria es occurrence.txt. Los
contenidos de este documento pueden importarse a algún programa de
hoja de cálculo para su fácil edición y depuración. Los programas
utilizados en este manual para modelar el nicho requieren únicamente
tres columnas: identificador, latitud, y longitud. Pueden descartarse los
registros que no tengan esta información, a menos que sea posible
deducirla con la suficiente certeza a partir de otros datos (ver la columna
“locality”).
10. Guardar este archivo, que servirá como base para generar los archivos
necesarios para modelar el nicho, en formato *.xls.
6
Convertir datos de presencia a shapefile usando ArcMap 10.2.
1. Importar el archivo *.xls a ArcMap utilizando la herramienta “Excel to
Table”, localizada en System Toolboxes > Conversion Tools > Excel.
7
4. Aparecerá un cuadro de
diálogo. Definir los campos que
contienen la información de
longitud (X) y latitud (Y), y
definir el sistema de proyección
haciendo clic en el botón
“Edit”(1) y seleccionando el
adecuado de la lista que
aparecerá en una ventana
emergente.
8
6. Seleccionar la ubicación y el nombre con el que guardaremos el
archivo. En la parte inferior, seleccionar la opción “Save as Type:
Shapefile”.
9
Convertir datos de presencia a shapefile usando QGIS 2.4.
1. Guardar el archivo *.xls como *.csv.
11
5. Aparecerá un cuadro de diálogo, donde se definirá el tipo de archivo como
“Archivo shape de ESRI”, la ubicación y nombre del archivo en el campo
“Guardar como”, y las demás opciones pueden dejarse por defecto. Dar
clic en el botón Aceptar.
12
Obtención de datos de presencia de CONABIO.
1. Accesar a la página http://www.conabio.gob.mx/informacion/gis/
13
Unir varios shapefiles en un solo archivo usando QGIS 2.x.
1. Archivar los shapefiles a unir en una misma carpeta.
14
Unir varios shapefiles en un solo archivo usando ArcMap 10.2.
1. Abrir la herramienta “System Toolbox > Data Management Tools > General >
Merge”.
15
Obtención y preparación de datos de terreno.
Para fines de este manual, los datos de terreno abarcan la información sobre
el relieve, y otras características correspondientes al medio abiótico distintas
al clima; por ejemplo, el uso de suelo y vegetación, la presencia de cuerpos
de agua, tipos de suelo, etcétera.
Datos de relieve.
Estos datos se encuentran representados en los modelos digitales de
elevación (MDE, o DEM, por sus siglas en inglés), a partir de los cuales se
pueden obtener capas raster que representen la orientación, pendiente y
curvatura del terreno.
En el caso de México, esta información se puede obtener gratuita y
fácilmente del INEGI, a través del portal de descarga del Continuo de
Elevaciones Mexicano. El continuo base fue generado en una resolución de
15 m, del que se derivan las resoluciones de 30, 60, 90 y 120 m. INEGI tiene
disponible información sobre el relieve continental y submarino. Para
descargar MDE continentales, hacer clic en la pestaña “Geografía” en la
parte superior izquierda de la página principal del sitio de INEGI. Se
desplegará un menú, colocar el cursor sobre “Temas” y hacer clic en “Datos
de Relieve”.
16
Hacer clic en “Continental” en la página de Datos de relieve. Hacer clic en
“Continuo de Elevaciones Mexicano (CEM) 3.0 – Descarga”. Se desplegará
la interfaz de descarga del CEM.
17
Máscara de corte.
Para procesar las capas raster que se utilizarán para el modelo, primero hay
que preparar un shapefile que delimite el polígono del área del modelo, en el
mismo sistema de proyección que los puntos de presencia.
•Nota: Al hacer clic en cualquier campo en el que haya que definir una ruta,
aparecerá un botón con tres puntos que, al ser presionado, abrirá una
ventana en la cual se podrá navegar hasta el archivo deseado.
18
3. Cargar el shapefile de la máscara de corte desde File > Shapes > Load o
el botón Load.
4. Cortar el MDE utilizando el módulo Shapes – Grid > Clip Grid with
Polygon. Asegurarse de seleccionar el MDE reproyectado.
19
Derivar Aspecto y Pendiente a partir de un MDE en SAGAGIS 2.1.
1. Utilizar el módulo Terrain Analysis – Morphometry > Slope, Aspect,
Curvature, seleccionando el MDE como capa de “Elevation”.
2. Definir todas las capas que se quieran crear como “create”. Las que no
sean necesarias pueden quedar como “not set”. Elegir el método
preferido en la lista desplegable “Method”.
3. Exportar las capas generadas, una a la vez, como archivo *.asc utilizando
el módulo Import /Export – Grids > Export ESRI Arc/Info Grid.
20
Recortar el MDE usando ArcMap 10.2.
1. Agregar el MDE al proyecto. No es necesario crear pirámides.
3. Para reproyectar el MDE, usar la herramienta Tools > System Toolboxes >
Data Management Tools > Projections and Transformations > Raster >
Project Raster. Seleccionar el raster a reproyectar de la lista
desplegable “Input”, y definir el sistema de coordenadas al que se va a a
convertir presionando el botón junto al campo “Output Coordinate
System” y seleccionando el adecuado en la ventana que aparecerá.
Cuando todo esté listo, presionar el botón OK en la parte inferior
izquierda de la ventana.
21
5. Para exportar a *.asc el raster recortado, usar la herramienta Tools >
System Toolboxes > Conversion Tools > From Raster > Raster to ASCII.
Seleccionar el raster recortado en la lista desplegable “Input raster” y
hacer doble clic en el campo “Output ASCII raster file”. Aparecerá una
ventana en la que se definirá la ubicación y nombre del archivo. En la
parte inferior, hacer clic en la lista desplegable “Tipo” y seleccionar el
segundo “File”, para que el archivo sea guardado como *.asc y no *.txt.
22
Derivar Aspecto y Pendiente a partir de un MDE en ArcMap 10.2.
1. Para generar una cobertura de aspecto, usar la herramienta Tools >
System Toolboxes > Spatial Analyst > Surface > Aspect.
24
5. Hacer doble clic en algún campo de la columna “Output ASCII raster file”
abrirá una ventana en la cual se podrá seleccionar la ruta, nombre y tipo
de archivo como si fuera un archivo individual. Cuando todos los
archivos a exportar hayan sido definidos, dar clic en OK.
25
Otros datos de terreno.
El INEGI, además, tiene disponibles distintas coberturas con información
adicional sobre el terreno, que, dependiendo de la especie a modelar,
pueden resultar útiles. Éstos recursos se encuentran en la pestaña
Geografía > Temas > Recursos Naturales.
26
Buscar enlaces para descargar “datos vectoriales”.
27
Conversión de shapefiles a capas raster usando SAGAGIS 2.1.
1. Cargar los shapefiles a convertir, así como alguna de las capas raster ya
reproyectadas y la máscara de corte.
3. Utilizar el módulo Grid Gridding > Shapes to Grid. (Nota: Para convertir
un vector a raster, debe poseer una columna numérica que represente
las categorías que queremos distinguir en el raster. En el caso de las
capas vectoriales de INEGI, esta columna suele ser “FC”).
4. Tras hacer clic en Okay, aparecerá una ventana dónde definir las
propiedades dela capa a generar. Cambiar “Cellsize” al mismo que la
28
capa raster cargada durante el primer paso (Este dato puede
consultarse seleccionando la capa en la pestaña “Data” del panel
“Manager”, y después, viendo la pestaña “Description” en el panel
“Object Description”).
5. Recortar las capas raster generadas utilizando el módulo Shapes – Grid >
Clip Grid with Polygon.
29
Conversión de shapefiles a capas raster usando ArcMap 10.2.
1. Reproyectar los shapefiles usando la herramienta “Tools > System Toolboxes
> Data Management Tools > Projections and Transformations > Batch
Project”. Agregar las capas una a una haciendo clic en el botón junto al
campo “Input Feature Class or Dataset”.
30
3. Recortar las capas raster generadas utilizando la herramienta “Tools >
System Toolboxes > Spatial Analyst Tools > Extraction > Extract by Mask”;
usando como máscara el MDE recortado. Presionar el botón
“Environment...” para hacer ajustes.
31
4. Exportar las capas recortadas usando la herramienta “Tools > System
Toolboxes > Conversion Tools > From Raster > Raster to ASCII” en modo de
lotes.
32
Obtención y preparación de
datos climáticos.
Nota: Para descargar información climática específica para DIVAGIS, ir a
http://divagis.org/climate.
33
2. Seleccionar la resolución deseada. En este caso, 30 segundos de arco.
Dependiendo de la velocidad de descarga de internet y la extensión en
que se va a trabajar, se pueden descargar las capas globales o los
mosaicos individuales. Para descargar todo el territorio mexicano, se
necesita descargar los mosaicos 12, 22 y 23. Hacer clic en el mosaico a
descargar y aparecerán los enlaces de descarga. Hacer clic en “Bioclim”
de formato genérico (BIL).
34
3. Si se descarga el archivo global, se puede proceder a reproyectarlo,
cortarlo y exportarlo como *.asc.
35
Unir los mosaicos en SAGAGIS 2.1.
1. Importar las capas a unir utilizando el módulo Import / Export GDAL /OGR
> GDAL: Import Raster.
3. Unir las capas de la misma variable utilizando el módulo Grid Tools >
Mosaicking. Será necesario correr el módulo una vez por capa a
generar.
4. Cortar las capas unidas utilizando el módulo Shapes – Grid > Clip Grid
with Polygon.
5. Exportar las capas recortadas con el módulo Import /Export – Grids >
Export ESRI Arc/Info Grid.
36
Unir los mosaicos en ArcMap 10.2.
1. Usar la herramienta System Toolboxes > Data Management Tools >
Raster > Raster Dataset > Mosaic To New Raster.
37
6. Las demás opciones pueden quedar en la configuración por
defecto.
2. Cortar el mosaico generado con la herramienta Tools > System Toolboxes
> Spatial Analyst Tools > Extraction > Extract by Mask; usando como
máscara el MDE recortado. (Ver paso 3 de “Conversión de shapefiles a
capas raster usando ArcMap 10.2.”)
38
Modelado en Maxent
3.3.3k.
Archivos necesarios para el proceso.
39
Modelado en Maxent
1. Correr el archivo maxent.jar
2. Cargar el archivo de los puntos de presencia presionando el botón
“Browse” en el apartado “Samples”. Seleccionar las especies a modelar, si el
archivo contiene más de una.
3. Cargar las capas raster del modelo seleccionando la carpeta que las
contiene con el botón “Browse” en el apartado “Environmental Layers”. Tener
atención en señalar las capas categóricas como tales.
4. Definir el tipo, ubicación y formato de los archivos a generar con las
opciones de la parte inferior de la ventana.
40
5. Configurar el modelo a discreción con las opciones del botón “Settings”.
41
6. Cuando la configuración esté lista, presionar el botón “Run”.
42
Modelado en DIVA-GIS 7.5
Archivos necesarios para el proceso
43
3. Descomprimir los archivos en la carpeta C:/Archivos de programa/diva
gis/environ.
1. Hacer clic en el Menú Data > Import to Gridfile > Multiple Files.
44
Modelado en DIVAGIS 7.5
1. Agregar el archivo shp de presencia con el menú Layer > Add Layer.
2. Agregar las capas raster que se usarán para el modelo haciendo un stack
con el menú Stack > Make Stack. Seleccionar las capas a agregar con el
botón Add Grid. Definir ubicación y nombre de archivo del stack con el
botón Filename.
3. Hacer de la capa de puntos la capa activa haciendo clic sobre ella con el
boón izquierdo en el panel de contenidos (la capa activa se distingue
por aparecer en relieve). Hacer clic en el menú Modeling > Bioclim /
Domain.
45
4. En la pestaña Input, seleccionar si se modelará con base en la información
climática o en algún stack. Además, se puede definir si se removerán
duplicados de los datos y si hay una o varias clases en el shp.
46
5. En la pestaña Predict, presionar el botón Maximum extent para que la
extensión del modelo sea la misma que la de las capas raster. Si se está
modelando a partir de la información climática, se puede seleccionar un
área con el botón Draw a rectangle, o escribiendo las coordenadas
máximas y mínimas para X y Y. De lo contrario, la extensión del modelo
será la de las coordenadas máximas de la capa de puntos de presencia.
48
Modelado por superposición
aditiva en ArcMap 10.2
Archivos necesarios para el proceso.
• Además debe contar con alguna plataforma para análisis estadísticos como
el SPSS o el Statgraphics, durante el desarrollo de esta guía
utilizaremos el SPSS versión 21.
49
2. Guardar el archivo en formato *.csv delimitado por tabulaciones.
3. Importar el archivo en forma de puntos siguiendo la ruta > file > Add Data
> Add XY Data.
50
Extracción de atributos ambientales y análisis de correlación.
1. Agregar las capas raster de las variables ambientales, todas en formato
*.grd con igual tamaño de píxel. Para fines de este manual se utilizaran
las variables disponibles en WorldClim, a excepción de las capas
promedio, además de la elevación (MDE). (El tamaño de píxel
recomendado es de 1km aproximadamente).
2. Una vez añadido el shape file de puntos y las capas raster que contienen
las variables ambientales, así como el MDE, procederemos a extraer los
valores de dichas capas: > ArcToolbox > Spatial Analyst Tools >
Extraction > Extract Multi Values to Points. En este paso se asocian los
valores de cada capa a la tabla de atributos del shape file de puntos
geográficos de la especie de estudio.
3. Esta tabla de atributos de los puntos debe ser exportada en formato *.dbf,
para luego ser importada desde el programa SPSS: > Archivo > Abrir >
Datos (debe asegurarse que en la opción "Archivos de tipo" de la
ventana de apertura de archivos del SPSS se halle seleccionada la
opción de dBase *.dbf.
51
4. El análisis de correlación se lleva a cabo mediante la ruta > Analizar >
Correlaciones > Bivariadas. En la ventana de correlaciones bivariadas
deberán agregarse a la casilla de "Variables" las columnas que
contengan los datos ambientales y los valores del MDE, además de
seleccionar las opciones de correlación de Pearson y la prueba de
significación bilateral.
52
5. Como resultado de este análisis se obtendrá una tabla con los valores de
correlación de las variables ambientales, a partir de esta se llevará un
proceso de selección mediante el cual se eliminarán las variables
correlacionadas significativamente (>.075). En esta etapa debe tomarse
en cuenta la biología de la especie en cuestión, por ejemplo, al modelar
la distribución potencial de especies cuya distribución está ligada
fuertemente a la altitud, se debe considerar la importancia de la variable
elevación (MDE), eliminando las variables que correlacionen con esta.
54
9. La extracción se lleva a cabo en la ruta > ArcToolbox > Spatial Analyst
Tools > Extraction > Extract by Attributes. En la ventana de este proceso
se añade la máscara de elevación en la casilla de "Input raster",
mientras que en la casilla de "Where clause" se introduce la sintaxis de
extracción de la siguiente manera: ("VALUE" >= Valor mínimo) AND
("VALUE" <= Valor máximo). El Valor mínimo en este ejemplo es
1000 como se puede observar en el gráfico de frecuencias y el Valor
máximo es de 1600. Las observaciones que van de 1800 a 1900 se
consideraron datos atípicos y no son considerados en la extracción.
Cuando exista más de un rango para extraer debe agregarse el prefijo
"OR" de la siguiente forma: ("VALUE" >= Valor mínimo) AND
("VALUE" <= Valor máximo) "OR" ("VALUE" >= Valor mínimo) AND
("VALUE" <= Valor máximo). Por último en la casilla de "Output raster"
se añade la ruta del nuevo raster de salida. Al finalizar este paso
tendremos la variable de elevación (MDE) en una nueva capa que
contiene únicamente los valores donde se hallan los registros de
presencia. Este proceso debe realizarse con cada una de las variables
seleccionadas a través del análisis de correlación bivariada.
55
Reclasificación y sobreposición aditiva de capas raster en
ArcMap 10.2.
1. Al contar con las capas nuevas producto de la extracción se procederá a
reclasificar cada una de ellas con ayuda del gráfico de frecuencias.
Debe asignarse un valor con orden descendente (101) dando el
número más alto al rango de valores que contiene el mayor número de
registros de la especie. A continuación se muestra un ejemplo de
reclasificación de la variable de elevación (MDE).
56
2. Este procedimiento se realiza siguiendo la ruta >ArcToolbox > Spatial
Analyst Tools > Reclass > Reclassify. En la opción de "Input raster" debe
añadirse la variable que se pretende reclasificar y en la opción de
"Reclass field" el campo "Value". Al dar clic sobre el botón Classify se
desplegará la ventana donde es posible definir el número de clases a
utilizar (en esta ocasión 6). Luego hacer clic sobre "OK".
57
4. La reclasificación debe realizarse con cada capa siguiendo los mismos
lineamientos. Se deberá obtener una nueva capa con los valores de
reclasificación sustituyendo los valores originales para todas las capas
utilizadas en el modelado.
58
59
60
61
62
63
64
65
66
67
68
69
70