Академический Документы
Профессиональный Документы
Культура Документы
Generalidades
El presente trabajo fue elaborado en el contexto específico de un panel sobre la calidad de los
datos espaciales y la forma en que dicho enfoque se puede abordar en relación con los
sistemas de información geográfica (SIG); panel en el cual se cuenta además con la
participación de usuarios que han presentado ejemplos concretos de los variados usos que se
pueden dar a estos sistemas: aprovechamiento de recursos, investigación social, medio
ambiente y análisis electoral.
Para el desarrollo de este tema conviene tomar como punto de partida a los Sistemas
Nacionales Estadístico y de Información Geográfica (SNEIG), dentro de cuyo contexto el INEGI
cumple una serie de obligaciones, entre las cuales está la elaboración de un marco de
referencia que ayude a que los datos sean compatibles e intercambiables. En este marco
normativo existen tres elementos principales:
2. Sistema de escalas. Establece las escalas geográficas que se usarán en el contexto de los
SNEIG y explica la forma de dividir al territorio nacional en cada una, proporcionando criterios
de división, dimensiones y proceso para la asignación de claves.
3. Metadatos. Se refiere a una estructura para organizar los datos que hablan acerca de los
datos. Esto favorecerá la búsqueda y localización, por parte de los usuarios, de los diversos
productos geográficos.
Ahora bien, estos elementos son indispensables para que los datos sean compartibles e
intercambiables, pero también es necesario asegurarse de que sean interoperables y por lo
tanto, útiles. Para ello se debe recurrir a otra perspectiva: la de calidad. Solamente la
documentación y evaluación de este aspecto asegura la confiabilidad de los datos, la cual a su
vez constituye el estímulo para su empleo.
¿Qué es la calidad?
La calidad es un tema cuya importancia es cada vez más reconocida entre los productores y
usuarios de datos espaciales. Una revisión, así sea rápida, de la historia de este concepto
mostrará que no se trata de algo reciente, sino de la historia misma de la producción. La
necesidad de obtener productos que cumplan con un mínimo de requisitos establecidos ha
estado presente en todas las etapas del desarrollo tecnológico.
En el caso de los datos espaciales existen ya varios conceptos, ideas y métodos de trabajo que
es necesario conocer y eventualmente aplicar en las distintas formas que puede tomar un
producto en este ámbito (cartografía, modelos digitales de elevación, imágenes varias, etc.), así
como en los mismos sistemas de información geográfica (SIG).
Características. Esto nos vincula con determinados atributos del producto. Evidentemente, para
analizar y evaluar tales atributos en forma objetiva es necesario que éstos sean apreciables y
susceptibles de ser medidos.
Aptitud. Nos dice que el producto será evaluado estrictamente con base en una idea de ser apto
para algo, y que esto será medido objetivamente.
Necesidades. Nos aclara por fin el “algo” que es la base de la evaluación de aptitud: las
necesidades que debe satisfacer el producto, lo que se espera de él. En el caso de los datos
espaciales, lo que se espera es exactitud, confiabilidad y certeza.
El concepto de calidad tiene dos ideas, estrechamente vinculadas con la evolución de dicho
concepto: el cumplimiento de normas y la satisfacción de necesidades. Es decir, lo ideal es que
el producto no solamente cumpla con las reglas de su diseño, sino que además este diseño
haya sido elaborado pesando en las necesidades de los usuarios. Un producto que cumpla
1
Francisco Ariza, Calidad en la Producción Cartográfica, 2002, pág. 3.
fielmente con las normas para su creación puede ver limitada su calidad integral si el diseño si
hizo sin tomar en cuenta lo que los usuarios demandan.
Así pues, es conveniente aclarar por anticipado algunos posibles errores de concepción sobre
el tema.
La calidad no significa ausencia total de errores. Nunca se debe perder de vista que los datos
perfectos no existen. La idea es que el productor determine el margen de error de sus datos y lo
declare, para que el usuario lo conozca.
Calidad y normalización
Estos dos aspectos están tan estrechamente relacionados que se puede decir, empleando una
frase común, que son las dos caras de una misma moneda. De hecho, el cumplimiento de las
normas establecidas para un producto fue el criterio original para determinar la calidad de éste y
en un momento histórico posterior se agregó el criterio de satisfacer las necesidades del cliente
o usuario.
Como bien dice Moles i Plaza,2 la normalización es realmente el “fundamento de todo sistema
de calidad”, porque como hemos comentado, ésta se refiere al control de procesos, y la única
forma de asegurar dicho control es mediante la aplicación de reglas uniformes dirigidas a todas
2
Ramón Moles i Plaza, Derecho y calidad. El régimen jurídico de la normalización técnica, 2001, pág. 13
las unidades productoras relacionadas. Y a su vez, la idea de reglas uniformes para todos los
productores nos lleva de inmediato al concepto de normalización, que implica la elaboración y
aplicación de normas técnicas; entendidas éstas como reglas obligatorias, emitidas por
autoridad competente, y orientadas a regular determinada actividad. Contienen dos elementos
principales:
a) Reglas de geometría para los elementos vectoriales: qué entidades pueden conectar
entre sí y cuáles pueden tener relaciones de compartición.
b) Requisitos de los procesos. Por ejemplo, los que deben cumplirse para realizar vuelos
aerofotográfico: tipo de cámara, de película, criterios para planear el vuelo, etc.
a) Las dimensiones mínimas que deben tener los objetos espaciales para ser incluidos en la
base de datos.
b) La resolución (tamaño del píxel) con la cual se debe escanear una película fotográfica o
remuestrear una imagen ráster en determinados procesos.
Una definición de normalización que sintetiza estos elementos la ofrece la Agencia Española de
Normalización (AENOR): “Conjunto de actividades consistentes en la elaboración, difusión, y
aplicación de normas como forma de establecer soluciones productivas a situaciones
3
repetitivas.” Esta definición introduce la fórmula “soluciones productivas”, que nos ubica en
una visión más amplia, institucional, y esto es importante porque nos recuerda que la
normalización está directamente relacionada con las políticas de los organismos e instituciones
que actúan como productores y/o usuarios de datos espaciales.
En tal sentido, es importante mencionar que en nuestro país existen ya avances importantes en
lo que se refiere a la normalización:
1. Elaboración de normas técnicas. El INEGI desarrolla el Modelo Conceptual para las Normas
Técnicas en Materia de Geografía, que consiste en la elaboración de propuestas de normas
técnicas que abarcan diferentes temas: recursos naturales, geodesia, aerofotografía,
nombres geográficos, etc., así como otras de uso general. Hasta 2006 se han elaborado en
total 19 propuestas de normas y lineamientos técnicos. Se tienen 4 en proyecto para 2007.
3
Citada por Ariza, op. cit., pág. 10
En relación con el tema de la calidad en datos espaciales, lo anterior reviste importancia porque
la promoción, estudio y adopción de la metodología de calidad no tendría que “partir desde
cero”. Ya existe una organización nacional que apoyaría en la misma forma en que ha
impulsado las actividades relacionadas con la normalización.
Una vez hechas estas consideraciones sobre el enfoque de calidad y su relación con la
normalización, conviene mencionar muy brevemente los componentes de calidad.
Componentes de calidad
Como se dijo, el concepto de calidad tiene dos ideas generales: el cumplimiento de las reglas
del producto y su capacidad para satisfacer necesidades en aplicaciones particulares. La
primera idea es cubierta por los componentes cuantitativos, que miden el cumplimiento de las
normas y especificaciones técnicas. La segunda idea se analiza mediante los componentes no
cuantitativos, pues éstos proporcionan las perspectivas de aplicabilidad del producto al detallar
su historia, los usos previstos para él así como aquéllos que ya se le han dado.
Componentes cuantitativos
Exactitud posicional. Se refiere a la diferencia entre las coordenadas que están registradas en el
producto y las verdaderas, o bien aquéllas que son aceptadas como verdaderas. En este último
caso, se refiere a medidas directas en campo, cartografía, imágenes, etc., en el entendido de
que sus características permiten aceptar su confiabilidad como parámetro de comparación. Éste
es muy probablemente el más complejo y estudiado de los componentes de calidad y se
expresa como error promedio o como un estimado máximo de error
Completitud o compleción. Se trata de constatar la existencia de todos los elementos que deben
estar en el producto. Es decir, que no falten ni sobren objetos espaciales y que cada uno tenga
datos en sus atributos.
Consistencia lógica. Constatar el cumplimiento de las reglas que debe cumplir el producto.
Dichas reglas pueden ser de varios tipos; por ejemplo, la correcta topología y estructura de los
datos (coherencia de formato) o el cumplimiento del universo de valores autorizados para un
determinado atributo (coherencia de dominio de valores).
Exactitud temática. Es la veracidad de los atributos de los objetos espaciales. Se relaciona con
el componente anterior en el sentido de que un determinado valor de atributo (por ejemplo, una
carretera con valor “5” en el atributo “número de carriles”) puede estar dentro del dominio de
valores autorizado, pero es posible que sea un dato erróneo (que la carretera tenga 2 carriles).
En tal caso, el dato tiene consistencia lógica, pero no exactitud temática.
Linaje o genealogía. Se refiere a la historia del producto y describe las etapas principales en el
desarrollo del mismo, como el origen –incluyendo las fuentes de datos que se utilizaron, su
escala, los diferentes métodos empleados, etc.- y las etapas de de actualización,
reestructuración, etc. que se hayan efectuado, señalando fecha y características principales de
cada una. Es el tipo de información que normalmente es asociada con los metadatos.
Uso. Detalla las aplicaciones que en los hechos ya se le han dado ya al producto, tanto por los
diferentes usuarios como por el productor mismo, si es el caso.
Después de comentar brevemente algunas ideas básicas sobre la calidad en datos espaciales,
la segunda parte de este trabajo aborda el tema de los SIG, tratando de establecer algunas
relaciones con los conceptos mencionados antes.
Así pues, son los datos espaciales y su calidad el principal elemento activo de los SIG; y al igual
que en cualquier otro Sistema de Información Geográfica, determinan su éxito y eficacia.
Particular importancia reviste el control del error. Éste puede ser de varios tipos: posicional,
temático, lógico, etc., y durante las fases de transformación y análisis dentro del SIG puede
ampliarse. Por tanto, es conveniente hacer lo posible para dar seguimiento y controlar este
factor.
En síntesis, la calidad de la información de salida de un SIG, depende directamente de la
calidad de los datos espaciales y sus fuentes, así como del error que está implícito en su
generación, transformación y análisis.
Los elementos de la información fuente que pueden ser estudiados con el enfoque de calidad
son muchos y no pueden abordarse todos en este documento. Por ello se han seleccionado, a
manera de ejemplo, tres de ellos: la escala, la exactitud posicional y el factor temporal de los
datos.
En relación con el desarrollo de la base de datos para un SIG, se plantea con frecuencia la
cuestión de la escala. Es importante recordar que los datos almacenados en un SIG, -es decir,
los datos digitales- no tienen escala explícita (fija) y es común que se piense que pueden
utilizarse para generar información a cualquier escala. Sin embargo, el usuario debe recordar
que los datos se tomaron de medios impresos o digitales y por lo tanto tendrán la escala y
resolución inherente a los datos originales. Por ejemplo, si la base de datos se elaboró
digitalizando mapas 1:200 000, la escala máxima de representación de la información de salida
no podrá superar demasiado esa cifra. ¿Cuánto? El determinar ese umbral requiere análisis
especiales. Aunque es importante resaltar la capacidad que tienen los SIG para exponer
información a diversas escalas, -lo cual ayuda en la ubicación de ciertos sitios dentro de un
paisaje más amplio-, nunca debe perderse de vista que el nivel de detalle está condicionado por
la escala de los datos fuente, y el primero no se incrementa indefinidamente aumentando la
segunda.
El mal uso de la escala dentro de un SIG puede observarse por ejemplo en la etapa de la
manipulación de los datos, donde se llevan a cabo las integraciones y transformaciones, y
puesto que los sistemas permiten aumentar y reducir las vistas en un número infinito de
escalas, se podría pensar que en todas ellas los datos conservan su exactitud. Otro ejemplo se
refiere a los problemas que pueden surgir cuando algunos de los datos fuente son muy
detallados (obtenidos a partir de mapas a gran escala, p. ej. infraestructuras de servicios) y
otros se han obtenido a partir de mapas de escalas más pequeñas. Evidentemente en estos
casos el análisis se hace más complejo, pues el SIG tiene datos con diferentes escalas fuente.
¿Cuál será entonces el límite de detalle? ¿De nuevo está determinado únicamente por la escala
más grande, o ahora es más limitado por la combinación de datos con escalas de menor
detalle? Algo similar podemos preguntarnos cuando es necesario seleccionar la escala
apropiada de la información de salida (etapa de generación de productos): ¿la determina la
escala fuente mayor o deben intervenir otros parámetros adicionales?
Estas preguntas requieren sin duda algunos estudios y responderlas excede los alcances de
este documento. Sin embargo, vale la pena plantearlas como reflexión, pues son importantes
para estimar los alcances del sistema de información geográfica. Como vemos, la
documentación de la calidad -en este caso, a través del componente llamado linaje- aporta
elementos de estudio relevantes.
Error posicional
Partiendo de que los datos espaciales son aquellos objetos o entidades abstraídos del espacio
geográfico real, los cuales pueden corresponder con elementos de la naturaleza, con elementos
producto de la mano del hombre o a meras abstracciones numéricas derivadas del tratamiento
de cifras relacionadas con aquellos objetos o entidades, se advierte que su característica
intrínseca es la referencia espacial en dos o tres dimensiones. En función de esto, todo dato
espacial deberá contar con un valor de ubicación posicional, el cual informa el lugar en que se
encuentra el dato.
Ningún valor de ubicación posicional es perfecto; siempre habrá un error asociado. De aquí que
el término exactitud posicional expresa la diferencia entre el valor de la realidad y la medición
realizada.
La exactitud en la posición, como medida del desajuste entre el lugar en el que se declara que
ocurre el hecho geográfico y la verdadera posición del dato espacial, depende del tipo de datos
usados u observados. Se pueden situar con exactitud objetos bien definidos, como carreteras,
edificios, líneas divisorias y unidades topográficas discretas en mapas y en sistemas digitales,
mientras que separaciones menos discretas como las existentes entre la vegetación o los tipos
de suelo suelen ser resultado de estimaciones. El clima, los biomas, el relieve, los tipos de
suelo, el drenaje y otros elementos faltos de una clara delimitación en la naturaleza, son
susceptibles de ser interpretados.
Entonces, ¿qué esperar respecto al factor posicional? Como se dijo antes, no existen los datos
perfectos, libres completamente de error, pero precisamente por eso, ante la pregunta “¿debe
ser conocido ese dato?” la respuesta es “sí”. Y no sólo eso: hay que considerar además que al
incorporar los datos fuente al sistema son objeto de combinaciones y transformaciones, de
modo que es lógico esperar una suerte de propagación del error, que repercutirá en la
información de salida. Lógicamente ésta tampoco será perfecta ni exenta de error posicional,
puesto que hereda tal característica de sus datos origen; sin embargo, de nuevo por eso mismo
debe responderse también afirmativamente a la duda de si es necesario conocer la exactitud
posicional de la información de salida. Y no sólo eso, sino que es necesario también conocer la
diferencia entre las dos exactitudes (la los datos de salida y la de los datos fuente), debido a la
propagación del error mencionada antes.
Se cree a menudo que una gran exactitud posicional de los datos espaciales es necesaria en el
procesamiento y generación de los productos. La necesidad de exactitud posicional puede
variar radicalmente dependiendo del tipo de información deseada y del nivel de medida
necesario para una particular aplicación. Son los usuarios finales de un SIG los que deben
determinar el alcance de su trabajo. Exigir excesiva exactitud posicional es muy costoso.
La situación que guarde la vigencia (o actualidad) de los datos espaciales debe ser tomada en
consideración junto con la situación de los demás elementos de calidad. Se tendrán entonces
diferentes situaciones. Supongamos el caso de un SIG donde la escala sea adecuada, la
exactitud posicional suficiente, la completitud perfecta (no faltan ni sobran elementos) y los
atributos de los datos correctos; pero la fuente es de 1985. Es innegable que este factor
demerita a los demás, pues la realidad que se reflejaba con alta calidad en el SIG ya habrá
cambiado.
Para evaluar esto no existe un principio único, sino que en cada caso particular se debe decidir
si la deficiente actualidad de los datos demerita demasiado la aplicabilidad del producto, o si
aún es posible emplear con un margen aceptable de certeza. Se trata además de una decisión
importante, puesto que de ella se derivan las perspectivas para el empleo de la información que
puede obtenerse. Recuérdese que el fin último de la información es servir como apoyo para la
toma de decisiones que repercutirán directamente sobre el territorio.
Evaluación de la calidad
La calidad de los datos espaciales es una medida de su " aptitud de uso" y por lo tanto es
relativa al propósito de uso. Los datos pueden ser de alta calidad para un propósito y de baja
calidad para otro. Aunque los datos deberían ser de la más alta calidad alcanzable, lo más
importante es documentar su calidad de manera que un usuario tenga suficiente información
para decidir si los datos se ajustan o no al uso propuesto, más que intentar alcanzar una calidad
teórica ideal.
El propósito que tiene el productor de los datos espaciales al describir y declarar la calidad de
los datos espaciales, es facilitar al usuario la selección del conjunto de datos que mejor
satisfaga las necesidades o requisitos de una aplicación específica; no obstante, la declaración
del productor, el usuario debería tener la posibilidad de realizar una evaluación de la aptitud de
uso de los datos que está adquiriendo para utilizarlos con confianza según los requisitos
predeterminados.
Por parte del productor, la calidad de los datos, debe ser medible; es decir, que a través de la
aplicación de pruebas o test reconocidos a nivel internacional, se pueda llegar a conocer el nivel
de calidad de los datos que se ofrecen, lo cual deberá declararse en los metadatos que los
acompañan. Al realizar esto se cubre la exigencia que existe por parte de los usuarios, quienes
tienen así los medios para conocer y medir la calidad de los datos que adquieren y pueden
también evaluarla confrontando sus características contra lo declarado.
No existe un nivel mínimo aceptable de calidad de los datos espaciales ni guías para definir su
aptitud de uso; la idea es identificar, recolectar, describir y documentar la información de calidad
de un producto, de manera que cada usuario determine si satisface o no sus necesidades.
Los recursos que hay que dedicar para evaluar y conocer la calidad representan una parte
importante del costo total de las operaciones; sin embargo, esta inversión debe realizarse
porque de lo contrario habrá que considerar los datos como inciertos o de calidad desconocida
y su confiabilidad será menor.
La adopción de una política de calidad involucra varias tareas por realizar y problemas por
resolver. Se considera que todos pueden ser agrupados en cuatro grandes etapas:
2. Normatividad. Evidentemente será necesario unificar el marco normativo. Esto involucra tanto
las normas y especificaciones técnicas vigentes como otras que sea necesario elaborar. Incluso
es posible que las diversas áreas productoras cuenten con lo que podemos llamar “normas de
facto”; es decir, las reglas que usan en forma interna para sus trabajos, pero que no han sido
estructuradas como una norma oficial ni siquiera en su institución u organismo, pero que
pueden ser tomadas como base. El definir un marco normativo único para un determinado
ámbito (sectorial, regional o nacional, depende de diversos factores) es necesario, pues
constituye el punto de referencia para la evaluación objetiva de la calidad.
3. Marco teórico-metodológico. El marco normativo aporta los elementos de lo que se va a
evaluar, y a continuación será necesario determinar cómo se evaluará. Esto se forma por los
conceptos, ideas y métodos sobre calidad que han desarrollado diversas instituciones,
organismos internacionales de normalización y expertos: completitud, actualización –factor
temporal- consistencia, exactitud de posición, etc. El estudio de las diversas normas y métodos
de prueba llevará a la adopción de aquéllos se consideren adecuados. En síntesis, se trata de
desarrollar un modelo de calidad propio, adaptado a nuestra realidad y a nuestros procesos de
producción geográfica.
4. Ejecución. Dado que las fases anteriores constituyen la preparación de los trabajos, lo
siguiente es llevarlos a cabo. Se prevé una etapa de diseño de pruebas, dado que existen
diferentes métodos (test) para medir los componentes de calidad -sobre todo en lo referente a
exactitud posicional-, y será necesario seleccionar los más adecuados. Esto, por supuesto,
sería integrado en su momento al modelo de calidad. Ahora bien, todo lo anterior se refiere a los
trabajos para que los productores determinen la calidad de sus productos (lo cual significa
básicamente establecer sus márgenes de error), por lo que ya serán capaces de declararla y
eso permitirá eventualmente la verificación de la misma por parte de los usuarios.
Este gran proyecto tiene un resultado principal: ligar a los datos espaciales la categoría de
confiabilidad.
Conclusiones
El satisfacer las necesidades de los usuarios (cada vez más exigentes), la oportunidad en su
entrega y las facilidades para su uso involucran los conceptos de calidad de datos espaciales.
El valor de los datos depende de su calidad; serán valiosos en la medida en que sean útiles
para tomar decisiones acertadas.
Sin embargo, la información es un recurso costoso y por este motivo, la información de calidad
y los recursos para utilizarla al máximo no siempre están disponibles, en particular en los países
en desarrollo.
Actualmente existen numerosas instituciones públicas y privadas que generan datos espaciales;
sin embargo, esta actividad no se realiza en forma organizada, por lo que se tienen datos con
características disímiles, duplicidad de esfuerzos y datos no apegados al marco normativo de
los SNEIG, resultado de los enfoques parciales y locales bajo los cuales se produce la
información.
La calidad de los datos espaciales depende en buena medida de las normas para su
generación, las cuales aseguran o previenen la consistencia e interoperabilidad de los datos.
Para que los datos puedan ser aprovechados a través de Sistemas de Información Geográfica,
estos deberán ser interoperables, aspecto que se logra a través de la aplicación de las
normas. Ningún generador de datos no puede elaborar sus propias normas de manera aislada;
se deben tomar como base las desarrolladas en el marco de los SNEIG, lo cual permitirá
compatibilidad entre la producción de los datos y su empleo en los SIG.
Varios de los elementos para documentar la calidad (escala fuente, actualidad, exactitud,
corrección, etc.) ya son objeto de atención por productores y usuarios, quienes reconocen su
importancia dentro del SIG, pero muchas veces no son entendidos como partes que
relacionadas entre sí determinan un concepto denominado calidad. Es necesario entonces dar
un salto conceptual y adoptar este enfoque, pues el analizar integralmente estos elementos
nos dirá más que si se les estudia por separado.
Para lograr lo anterior es necesario desarrollar un modelo de calidad para datos espaciales, que
partirá del estudio de las normas existentes. Es necesario continuar con el desarrollo de un
marco normativo, pues éste es el parámetro para cubrir uno de los dos grandes aspectos de la
calidad, que es la medición (factor cuantitativo) del cumplimiento de los lineamientos del
producto.
El otro gran aspecto de la calidad, la aplicabilidad del producto para necesidades específicas,
(factor no cuantitativo), tiene actualmente menos desarrollo que los elementos cuantitativos. Es
necesario diseñar también estrategias en este sentido: los productores aprenderán a
documentar el linaje (genealogía) y el objetivo de sus productos. Asimismo se buscarán formas
que les permitan conocer el uso que se da a sus productos, para que lo documenten también.
Finalmente, se puede concluir que las principales razones que existen para la adopción de la
calidad son:
La disponibilidad de datos espaciales en forma oportuna y con la calidad requerida por los
usuarios asegura un mejor proceso de toma de decisiones para el desarrollo sostenible, el
bienestar de la sociedad y el desarrollo del país.
REFERENCIAS
- Ariza, Francisco, 2002. Calidad en la Producción Cartográfica. 389 pp. Madrid, Ra-Ma
Editorial.
- International Organization for Standardization, 2002. Norma 19113, Principios de
calidad. 30 pp.
- International Organization for Standardization, 2002. Norma 19114, Procedimientos
de evaluación de la calidad. 30 pp.
- Moles i Plaza, Ramón, 2001. Derecho y calidad. El régimen jurídico de la normalización
técnica. 332 pp. Barcelona, Ariel.