Вы находитесь на странице: 1из 20

LA CALIDAD DE LOS DATOS ESPACIALES Y SU IMPORTANCIA PARA EL

APROVECHAMIENTO DE LOS MISMOS

Geog. Rocío Reyes Cedeño


Subdirectora de integración de datos
INEGI
rocio.reyes@inegi.gob.mx

Generalidades

El presente trabajo fue elaborado en el contexto específico de un panel sobre la calidad de los
datos espaciales y la forma en que dicho enfoque se puede abordar en relación con los
sistemas de información geográfica (SIG); panel en el cual se cuenta además con la
participación de usuarios que han presentado ejemplos concretos de los variados usos que se
pueden dar a estos sistemas: aprovechamiento de recursos, investigación social, medio
ambiente y análisis electoral.

Para el desarrollo de este tema conviene tomar como punto de partida a los Sistemas
Nacionales Estadístico y de Información Geográfica (SNEIG), dentro de cuyo contexto el INEGI
cumple una serie de obligaciones, entre las cuales está la elaboración de un marco de
referencia que ayude a que los datos sean compatibles e intercambiables. En este marco
normativo existen tres elementos principales:

1. Una clasificación de datos espaciales en tres grandes clases: fundamentales básicos y de


valor agregado. La primera comprende ocho grupos de datos de primera necesidad, referidos al
territorio; la segunda, dos grupos que permiten el estudio del medio ambiente y la sociedad. El
INEGI, como parte de su misión, produce para la sociedad estas dos clases de datos, mientras
que los de valor agregado se refieren a usos muy específicos y son elaborados por los
diferentes usuarios que existen en la sociedad (figura 1).

2. Sistema de escalas. Establece las escalas geográficas que se usarán en el contexto de los
SNEIG y explica la forma de dividir al territorio nacional en cada una, proporcionando criterios
de división, dimensiones y proceso para la asignación de claves.
3. Metadatos. Se refiere a una estructura para organizar los datos que hablan acerca de los
datos. Esto favorecerá la búsqueda y localización, por parte de los usuarios, de los diversos
productos geográficos.

Ahora bien, estos elementos son indispensables para que los datos sean compartibles e
intercambiables, pero también es necesario asegurarse de que sean interoperables y por lo
tanto, útiles. Para ello se debe recurrir a otra perspectiva: la de calidad. Solamente la
documentación y evaluación de este aspecto asegura la confiabilidad de los datos, la cual a su
vez constituye el estímulo para su empleo.

¿Qué es la calidad?

La calidad es un tema cuya importancia es cada vez más reconocida entre los productores y
usuarios de datos espaciales. Una revisión, así sea rápida, de la historia de este concepto
mostrará que no se trata de algo reciente, sino de la historia misma de la producción. La
necesidad de obtener productos que cumplan con un mínimo de requisitos establecidos ha
estado presente en todas las etapas del desarrollo tecnológico.

En el caso de los datos espaciales existen ya varios conceptos, ideas y métodos de trabajo que
es necesario conocer y eventualmente aplicar en las distintas formas que puede tomar un
producto en este ámbito (cartografía, modelos digitales de elevación, imágenes varias, etc.), así
como en los mismos sistemas de información geográfica (SIG).

Ariza1 ofrece esta definición de calidad: “totalidad de las características de un producto o


servicio tal que le confieren su aptitud para satisfacer unas necesidades explícitas o implícitas.”
Es muy similar a la que establece por ejemplo la Organización Internacional de Normalización
(ISO), por lo que es válida como referencia. En ella existen tres elementos que conviene
destacar:

Características. Esto nos vincula con determinados atributos del producto. Evidentemente, para
analizar y evaluar tales atributos en forma objetiva es necesario que éstos sean apreciables y
susceptibles de ser medidos.

Aptitud. Nos dice que el producto será evaluado estrictamente con base en una idea de ser apto
para algo, y que esto será medido objetivamente.

Necesidades. Nos aclara por fin el “algo” que es la base de la evaluación de aptitud: las
necesidades que debe satisfacer el producto, lo que se espera de él. En el caso de los datos
espaciales, lo que se espera es exactitud, confiabilidad y certeza.

El concepto de calidad tiene dos ideas, estrechamente vinculadas con la evolución de dicho
concepto: el cumplimiento de normas y la satisfacción de necesidades. Es decir, lo ideal es que
el producto no solamente cumpla con las reglas de su diseño, sino que además este diseño
haya sido elaborado pesando en las necesidades de los usuarios. Un producto que cumpla

1
Francisco Ariza, Calidad en la Producción Cartográfica, 2002, pág. 3.
fielmente con las normas para su creación puede ver limitada su calidad integral si el diseño si
hizo sin tomar en cuenta lo que los usuarios demandan.

Así pues, es conveniente aclarar por anticipado algunos posibles errores de concepción sobre
el tema.

La calidad no significa ausencia total de errores. Nunca se debe perder de vista que los datos
perfectos no existen. La idea es que el productor determine el margen de error de sus datos y lo
declare, para que el usuario lo conozca.

La calidad no significa sólo declarar el margen de error. Ésta es la primera parte de la


responsabilidad, pero el productor debe entender que al hacerlo asume el compromiso de
garantizar lo declarado, pues de eso depende la confiabilidad de sus productos.

La calidad no significa estimar arbitrariamente el margen de error. Relacionado con el punto


anterior, la única forma garantizar el margen de error es realizando pruebas y análisis
específicos. La metodología de calidad que estudiosos y organizaciones internacionales
diversas han desarrollado durante años incluye ya una buena cantidad de métodos de prueba
para los diferentes elementos de calidad.

Calidad y normalización

Estos dos aspectos están tan estrechamente relacionados que se puede decir, empleando una
frase común, que son las dos caras de una misma moneda. De hecho, el cumplimiento de las
normas establecidas para un producto fue el criterio original para determinar la calidad de éste y
en un momento histórico posterior se agregó el criterio de satisfacer las necesidades del cliente
o usuario.

Como bien dice Moles i Plaza,2 la normalización es realmente el “fundamento de todo sistema
de calidad”, porque como hemos comentado, ésta se refiere al control de procesos, y la única
forma de asegurar dicho control es mediante la aplicación de reglas uniformes dirigidas a todas

2
Ramón Moles i Plaza, Derecho y calidad. El régimen jurídico de la normalización técnica, 2001, pág. 13
las unidades productoras relacionadas. Y a su vez, la idea de reglas uniformes para todos los
productores nos lleva de inmediato al concepto de normalización, que implica la elaboración y
aplicación de normas técnicas; entendidas éstas como reglas obligatorias, emitidas por
autoridad competente, y orientadas a regular determinada actividad. Contienen dos elementos
principales:

1. Disposiciones generales. Como las siguientes:

a) Reglas de geometría para los elementos vectoriales: qué entidades pueden conectar
entre sí y cuáles pueden tener relaciones de compartición.

b) Requisitos de los procesos. Por ejemplo, los que deben cumplirse para realizar vuelos
aerofotográfico: tipo de cámara, de película, criterios para planear el vuelo, etc.

c) Criterios de uso general, como la clasificación de datos espaciales en tres clases:


fundamentales, básicos y de valor agregado, así como los grupos de datos que
conforman cada clase.

2. Especificaciones técnicas. Complementan a las disposiciones generales; son valores


numéricos que establecen las características que debe tener un producto o los parámetros
exactos que deben aplicarse durante un proceso. Por ejemplo:

a) Las dimensiones mínimas que deben tener los objetos espaciales para ser incluidos en la
base de datos.

b) La resolución (tamaño del píxel) con la cual se debe escanear una película fotográfica o
remuestrear una imagen ráster en determinados procesos.

c) La tolerancia o error máximo permitido en las mediciones para determinar coordenadas


(50 cm. en planimetría y 1.5 m en altitud, etc.).

Una definición de normalización que sintetiza estos elementos la ofrece la Agencia Española de
Normalización (AENOR): “Conjunto de actividades consistentes en la elaboración, difusión, y
aplicación de normas como forma de establecer soluciones productivas a situaciones
3
repetitivas.” Esta definición introduce la fórmula “soluciones productivas”, que nos ubica en
una visión más amplia, institucional, y esto es importante porque nos recuerda que la
normalización está directamente relacionada con las políticas de los organismos e instituciones
que actúan como productores y/o usuarios de datos espaciales.

En tal sentido, es importante mencionar que en nuestro país existen ya avances importantes en
lo que se refiere a la normalización:

1. Elaboración de normas técnicas. El INEGI desarrolla el Modelo Conceptual para las Normas
Técnicas en Materia de Geografía, que consiste en la elaboración de propuestas de normas
técnicas que abarcan diferentes temas: recursos naturales, geodesia, aerofotografía,
nombres geográficos, etc., así como otras de uso general. Hasta 2006 se han elaborado en
total 19 propuestas de normas y lineamientos técnicos. Se tienen 4 en proyecto para 2007.

2. Participación interinstitucional en la elaboración de normas. Cada una de las propuestas


desarrolladas por el INEGI fue sometida a revisión de diversas instituciones de los sectores
público, privado, social y académico. Además de que esta política siempre enriquece los
resultados, se crea un sentimiento de participación, de pertenencia a un proyecto colectivo y
esto facilita la adopción de las normas por parte de las unidades productoras de datos
espaciales.

3. Instalación de comités técnicos. Esto se ha hecho en cumplimiento estricto de lo que dispone


la Ley de Información Estadística y Geográfica. Se trata de comités regionales (por entidad
federativa), sectoriales (por cada una de las 17 secretarías de Estado) y espaciales (3 en
total), además del Comité Técnico Consultivo de Información Estadística y Geográfica, como
máximo órgano dictaminador. A través de estas instancias se realizan las actividades de
participación, coordinación y sensibilización que acompañan a todo proceso de
normalización.

3
Citada por Ariza, op. cit., pág. 10
En relación con el tema de la calidad en datos espaciales, lo anterior reviste importancia porque
la promoción, estudio y adopción de la metodología de calidad no tendría que “partir desde
cero”. Ya existe una organización nacional que apoyaría en la misma forma en que ha
impulsado las actividades relacionadas con la normalización.

Una vez hechas estas consideraciones sobre el enfoque de calidad y su relación con la
normalización, conviene mencionar muy brevemente los componentes de calidad.

Componentes de calidad

Los componentes de calidad generalmente aceptados se agrupan en dos clases: cuantitativos y


no cuantitativos, como se muestra en la figura 2.

Como se dijo, el concepto de calidad tiene dos ideas generales: el cumplimiento de las reglas
del producto y su capacidad para satisfacer necesidades en aplicaciones particulares. La
primera idea es cubierta por los componentes cuantitativos, que miden el cumplimiento de las
normas y especificaciones técnicas. La segunda idea se analiza mediante los componentes no
cuantitativos, pues éstos proporcionan las perspectivas de aplicabilidad del producto al detallar
su historia, los usos previstos para él así como aquéllos que ya se le han dado.
Componentes cuantitativos

Exactitud posicional. Se refiere a la diferencia entre las coordenadas que están registradas en el
producto y las verdaderas, o bien aquéllas que son aceptadas como verdaderas. En este último
caso, se refiere a medidas directas en campo, cartografía, imágenes, etc., en el entendido de
que sus características permiten aceptar su confiabilidad como parámetro de comparación. Éste
es muy probablemente el más complejo y estudiado de los componentes de calidad y se
expresa como error promedio o como un estimado máximo de error

Completitud o compleción. Se trata de constatar la existencia de todos los elementos que deben
estar en el producto. Es decir, que no falten ni sobren objetos espaciales y que cada uno tenga
datos en sus atributos.

Consistencia lógica. Constatar el cumplimiento de las reglas que debe cumplir el producto.
Dichas reglas pueden ser de varios tipos; por ejemplo, la correcta topología y estructura de los
datos (coherencia de formato) o el cumplimiento del universo de valores autorizados para un
determinado atributo (coherencia de dominio de valores).

Exactitud temática. Es la veracidad de los atributos de los objetos espaciales. Se relaciona con
el componente anterior en el sentido de que un determinado valor de atributo (por ejemplo, una
carretera con valor “5” en el atributo “número de carriles”) puede estar dentro del dominio de
valores autorizado, pero es posible que sea un dato erróneo (que la carretera tenga 2 carriles).
En tal caso, el dato tiene consistencia lógica, pero no exactitud temática.

Exactitud temporal. Es la veracidad y congruencia en las referencias temporales de los datos.


Esto significa, por un lado, que las fechas de edición, toma de fotografía aérea, verificación de
campo, etc. estén correctamente registradas y tengan un orden congruente. Se refiere también
al grado de actualidad de los datos, puesto que, salvo objetivos muy concretos como los
estudios de tipo histórico, lo que se desea es tener datos lo más actualizados posible.
Componentes no cuantitativos

Linaje o genealogía. Se refiere a la historia del producto y describe las etapas principales en el
desarrollo del mismo, como el origen –incluyendo las fuentes de datos que se utilizaron, su
escala, los diferentes métodos empleados, etc.- y las etapas de de actualización,
reestructuración, etc. que se hayan efectuado, señalando fecha y características principales de
cada una. Es el tipo de información que normalmente es asociada con los metadatos.

Objetivo. Describe el fundamento para la creación del producto y su aprovechamiento. Por lo


menos debe incluir el motivo o motivos de su elaboración y el uso o usos intencionados
(previstos) para el mismo.

Uso. Detalla las aplicaciones que en los hechos ya se le han dado ya al producto, tanto por los
diferentes usuarios como por el productor mismo, si es el caso.

Se acepta, en forma prácticamente universal, que los anteriores componentes no


necesariamente son aplicables todos a un determinado producto, sino que su selección
depende de los aspectos de los cuales el productor va a documentar la calidad. Del mismo
modo, también se acepta que los anteriores no son los únicos componentes que pueden ser
usados, sino que pueden ser creados otros, si ello es necesario para cubrir un determinado
aspecto del cual el productor desea evaluar y declarar la calidad.

Después de comentar brevemente algunas ideas básicas sobre la calidad en datos espaciales,
la segunda parte de este trabajo aborda el tema de los SIG, tratando de establecer algunas
relaciones con los conceptos mencionados antes.

Éxito y eficacia de un sistema de información geográfica

Es bien sabido que la tecnología de los Sistemas de Información Geográfica proporciona


conectividad y consistencia a los datos espaciales que contiene, facilitando su gestión, análisis
global, explotación y mantenimiento conjunto; generando asimismo, a través de
transformaciones y combinaciones, información espacial útil para otra parte de la sociedad.
Un SIG no es una bola de cristal. Como sucede en cualquier sistema de cómputo, la
información producida sólo tiene el valor de los datos introducidos. Alimentación de datos
incorrectos o sin calidad produce respuestas incorrectas o sin calidad.

Entonces, la calidad de la información de salida está supeditada en gran medida a la calidad de


los datos de entrada; es por consecuencia de capital importancia invertir el mayor tiempo,
dinero y esfuerzo a la selección de los mismos. De aquí que esta es la fase más complicada y
costosa de la construcción de un SIG.

Así pues, son los datos espaciales y su calidad el principal elemento activo de los SIG; y al igual
que en cualquier otro Sistema de Información Geográfica, determinan su éxito y eficacia.

Por lo tanto es importante:

- Conocer las fuentes de los datos espaciales y sus posibles errores.


- Entender los métodos y problemas de la adquisición de los datos espaciales.
- Exigir al productor la declaración de la calidad de los datos que ofrece.
- Examinar las necesidades de los datos, tal como dónde encontrarlos, cómo catalogarlos,
y estrategias de captura.
- Concientizarse de las limitaciones de los datos, tal como capacidad de conversión e
integración de los mismos.
- Considerar estrategias para evaluar el error e implementar métodos de gestión de la
incertidumbre dentro del SIG
- Evaluar y caracterizar la calidad de la información que se ofrece y explicar las
implicaciones de dicha calidad para la toma de decisiones y la solución de problemas.
- Planear el aseguramiento de la calidad.

Particular importancia reviste el control del error. Éste puede ser de varios tipos: posicional,
temático, lógico, etc., y durante las fases de transformación y análisis dentro del SIG puede
ampliarse. Por tanto, es conveniente hacer lo posible para dar seguimiento y controlar este
factor.
En síntesis, la calidad de la información de salida de un SIG, depende directamente de la
calidad de los datos espaciales y sus fuentes, así como del error que está implícito en su
generación, transformación y análisis.

Los elementos de la información fuente que pueden ser estudiados con el enfoque de calidad
son muchos y no pueden abordarse todos en este documento. Por ello se han seleccionado, a
manera de ejemplo, tres de ellos: la escala, la exactitud posicional y el factor temporal de los
datos.

Escala de los datos en el sistema

Los Sistemas de Información Geográfica permiten realizar un gran número de manipulaciones,


sobresaliendo entre ellas las transformaciones de escala. Por ésta entendemos la relación entre
el tamaño de los objetos en el mundo real y en una representación determinada.

En relación con el desarrollo de la base de datos para un SIG, se plantea con frecuencia la
cuestión de la escala. Es importante recordar que los datos almacenados en un SIG, -es decir,
los datos digitales- no tienen escala explícita (fija) y es común que se piense que pueden
utilizarse para generar información a cualquier escala. Sin embargo, el usuario debe recordar
que los datos se tomaron de medios impresos o digitales y por lo tanto tendrán la escala y
resolución inherente a los datos originales. Por ejemplo, si la base de datos se elaboró
digitalizando mapas 1:200 000, la escala máxima de representación de la información de salida
no podrá superar demasiado esa cifra. ¿Cuánto? El determinar ese umbral requiere análisis
especiales. Aunque es importante resaltar la capacidad que tienen los SIG para exponer
información a diversas escalas, -lo cual ayuda en la ubicación de ciertos sitios dentro de un
paisaje más amplio-, nunca debe perderse de vista que el nivel de detalle está condicionado por
la escala de los datos fuente, y el primero no se incrementa indefinidamente aumentando la
segunda.

El mal uso de la escala dentro de un SIG puede observarse por ejemplo en la etapa de la
manipulación de los datos, donde se llevan a cabo las integraciones y transformaciones, y
puesto que los sistemas permiten aumentar y reducir las vistas en un número infinito de
escalas, se podría pensar que en todas ellas los datos conservan su exactitud. Otro ejemplo se
refiere a los problemas que pueden surgir cuando algunos de los datos fuente son muy
detallados (obtenidos a partir de mapas a gran escala, p. ej. infraestructuras de servicios) y
otros se han obtenido a partir de mapas de escalas más pequeñas. Evidentemente en estos
casos el análisis se hace más complejo, pues el SIG tiene datos con diferentes escalas fuente.
¿Cuál será entonces el límite de detalle? ¿De nuevo está determinado únicamente por la escala
más grande, o ahora es más limitado por la combinación de datos con escalas de menor
detalle? Algo similar podemos preguntarnos cuando es necesario seleccionar la escala
apropiada de la información de salida (etapa de generación de productos): ¿la determina la
escala fuente mayor o deben intervenir otros parámetros adicionales?

Estas preguntas requieren sin duda algunos estudios y responderlas excede los alcances de
este documento. Sin embargo, vale la pena plantearlas como reflexión, pues son importantes
para estimar los alcances del sistema de información geográfica. Como vemos, la
documentación de la calidad -en este caso, a través del componente llamado linaje- aporta
elementos de estudio relevantes.

Error posicional

Partiendo de que los datos espaciales son aquellos objetos o entidades abstraídos del espacio
geográfico real, los cuales pueden corresponder con elementos de la naturaleza, con elementos
producto de la mano del hombre o a meras abstracciones numéricas derivadas del tratamiento
de cifras relacionadas con aquellos objetos o entidades, se advierte que su característica
intrínseca es la referencia espacial en dos o tres dimensiones. En función de esto, todo dato
espacial deberá contar con un valor de ubicación posicional, el cual informa el lugar en que se
encuentra el dato.

Ningún valor de ubicación posicional es perfecto; siempre habrá un error asociado. De aquí que
el término exactitud posicional expresa la diferencia entre el valor de la realidad y la medición
realizada.

Con la finalidad de evaluar la calidad posicional de un conjunto de datos se deben usar


procedimientos definidos de manera clara y congruente. Esto permite a los productores de
datos expresar qué tanto cumple su producto con los criterios establecidos en su especificación,
en función de la exactitud posicional; y a los usuarios de datos, determinar el grado con el cual
un conjunto de datos cubre sus exigencias en posición.

La exactitud en la posición, como medida del desajuste entre el lugar en el que se declara que
ocurre el hecho geográfico y la verdadera posición del dato espacial, depende del tipo de datos
usados u observados. Se pueden situar con exactitud objetos bien definidos, como carreteras,
edificios, líneas divisorias y unidades topográficas discretas en mapas y en sistemas digitales,
mientras que separaciones menos discretas como las existentes entre la vegetación o los tipos
de suelo suelen ser resultado de estimaciones. El clima, los biomas, el relieve, los tipos de
suelo, el drenaje y otros elementos faltos de una clara delimitación en la naturaleza, son
susceptibles de ser interpretados.

Queda de manifiesto la importancia que juega el informar sobre la calidad de exactitud


posicional de los datos espaciales o conjuntos de ellos a fin de optimizar el proceso de
selección del conjunto de datos.

A veces, los usuarios de los Sistemas de Información Geográfica no están enterados de la


problemática posicional, y caen en la tentación de lo que podríamos llamar la “falsa exactitud”,
así que divulgan sus resultados declarando un nivel que realmente no es correcto, porque la
exactitud de sus datos fuente es invariable. Es decir, sólo porque las computadoras pueden
almacenar imágenes numéricas con muchos espacios decimales no significa que todos esos
espacios decimales sean "significativos". Esto implica graves errores de interpretación que
deben evitarse.

Entonces, ¿qué esperar respecto al factor posicional? Como se dijo antes, no existen los datos
perfectos, libres completamente de error, pero precisamente por eso, ante la pregunta “¿debe
ser conocido ese dato?” la respuesta es “sí”. Y no sólo eso: hay que considerar además que al
incorporar los datos fuente al sistema son objeto de combinaciones y transformaciones, de
modo que es lógico esperar una suerte de propagación del error, que repercutirá en la
información de salida. Lógicamente ésta tampoco será perfecta ni exenta de error posicional,
puesto que hereda tal característica de sus datos origen; sin embargo, de nuevo por eso mismo
debe responderse también afirmativamente a la duda de si es necesario conocer la exactitud
posicional de la información de salida. Y no sólo eso, sino que es necesario también conocer la
diferencia entre las dos exactitudes (la los datos de salida y la de los datos fuente), debido a la
propagación del error mencionada antes.

Se cree a menudo que una gran exactitud posicional de los datos espaciales es necesaria en el
procesamiento y generación de los productos. La necesidad de exactitud posicional puede
variar radicalmente dependiendo del tipo de información deseada y del nivel de medida
necesario para una particular aplicación. Son los usuarios finales de un SIG los que deben
determinar el alcance de su trabajo. Exigir excesiva exactitud posicional es muy costoso.

Vigencia de los datos (factor temporal)

Como ya se dijo, el componente temporal en la calidad se refiere, por un lado, a la corrección y


lógica de las referencias temporales del producto, así como la actualidad de sus datos. En este
último sentido, y salvo casos concretos como los estudios históricos –estudio de los cambios en
uso del suelo, o del avance de la mancha urbana-, es lógico suponer que los usuarios de datos
geográficos desean que éstos sean lo más actualizados posible. Podemos referirnos a esto
como la vigencia de los datos.

La situación que guarde la vigencia (o actualidad) de los datos espaciales debe ser tomada en
consideración junto con la situación de los demás elementos de calidad. Se tendrán entonces
diferentes situaciones. Supongamos el caso de un SIG donde la escala sea adecuada, la
exactitud posicional suficiente, la completitud perfecta (no faltan ni sobran elementos) y los
atributos de los datos correctos; pero la fuente es de 1985. Es innegable que este factor
demerita a los demás, pues la realidad que se reflejaba con alta calidad en el SIG ya habrá
cambiado.

Para evaluar esto no existe un principio único, sino que en cada caso particular se debe decidir
si la deficiente actualidad de los datos demerita demasiado la aplicabilidad del producto, o si
aún es posible emplear con un margen aceptable de certeza. Se trata además de una decisión
importante, puesto que de ella se derivan las perspectivas para el empleo de la información que
puede obtenerse. Recuérdese que el fin último de la información es servir como apoyo para la
toma de decisiones que repercutirán directamente sobre el territorio.
Evaluación de la calidad

La evaluación es la que permite determinar la calidad del producto. Desde un enfoque


sistémico, se considera que el concepto se puede expresar como las características o rasgos
de los insumos, procesos, resultados y productos que singularizan esa calidad y la hacen
distinguirse. No obstante esa aparente neutralidad del concepto, se reconoce el compromiso
con la búsqueda sistemática y continua de la excelencia. Sin embargo, la calidad requiere un
juicio valorativo que viene dado por la evaluación. La evaluación es lo que nos permite calificar
lo adecuado de los atributos de un dato espacial o producto.

La calidad de los datos espaciales es una medida de su " aptitud de uso" y por lo tanto es
relativa al propósito de uso. Los datos pueden ser de alta calidad para un propósito y de baja
calidad para otro. Aunque los datos deberían ser de la más alta calidad alcanzable, lo más
importante es documentar su calidad de manera que un usuario tenga suficiente información
para decidir si los datos se ajustan o no al uso propuesto, más que intentar alcanzar una calidad
teórica ideal.

El propósito que tiene el productor de los datos espaciales al describir y declarar la calidad de
los datos espaciales, es facilitar al usuario la selección del conjunto de datos que mejor
satisfaga las necesidades o requisitos de una aplicación específica; no obstante, la declaración
del productor, el usuario debería tener la posibilidad de realizar una evaluación de la aptitud de
uso de los datos que está adquiriendo para utilizarlos con confianza según los requisitos
predeterminados.

Por parte del productor, la calidad de los datos, debe ser medible; es decir, que a través de la
aplicación de pruebas o test reconocidos a nivel internacional, se pueda llegar a conocer el nivel
de calidad de los datos que se ofrecen, lo cual deberá declararse en los metadatos que los
acompañan. Al realizar esto se cubre la exigencia que existe por parte de los usuarios, quienes
tienen así los medios para conocer y medir la calidad de los datos que adquieren y pueden
también evaluarla confrontando sus características contra lo declarado.
No existe un nivel mínimo aceptable de calidad de los datos espaciales ni guías para definir su
aptitud de uso; la idea es identificar, recolectar, describir y documentar la información de calidad
de un producto, de manera que cada usuario determine si satisface o no sus necesidades.

Los recursos que hay que dedicar para evaluar y conocer la calidad representan una parte
importante del costo total de las operaciones; sin embargo, esta inversión debe realizarse
porque de lo contrario habrá que considerar los datos como inciertos o de calidad desconocida
y su confiabilidad será menor.

¿Qué nos exige la calidad?

La adopción de una política de calidad involucra varias tareas por realizar y problemas por
resolver. Se considera que todos pueden ser agrupados en cuatro grandes etapas:

1. Política institucional. La definición de las políticas que seguirá un órgano o institución


proviene de la autoridad competente, y es ésta a quien se debe convencer de la importancia de
la metodología de calidad. De esta aceptación al más alto nivel depende la disponibilidad de
recursos en un primer término, puesto que, como se dice a veces, la calidad cuesta. Pero
además del dinero se requiere la organización. En tal sentido, la declaración de la calidad como
política de las autoridades institucionales asegura la asignación de tiempos y personal al
desarrollo de las actividades correspondientes; es decir, se evitaría que la calidad sea vista
como una actividad extra a la que se dedicaría el tiempo sobrante. El paso lógico siguiente será
la coordinación durante el desarrollo de actividades, y los responsables de ésta evidentemente
habrán sido designados desde la etapa organizativa.

2. Normatividad. Evidentemente será necesario unificar el marco normativo. Esto involucra tanto
las normas y especificaciones técnicas vigentes como otras que sea necesario elaborar. Incluso
es posible que las diversas áreas productoras cuenten con lo que podemos llamar “normas de
facto”; es decir, las reglas que usan en forma interna para sus trabajos, pero que no han sido
estructuradas como una norma oficial ni siquiera en su institución u organismo, pero que
pueden ser tomadas como base. El definir un marco normativo único para un determinado
ámbito (sectorial, regional o nacional, depende de diversos factores) es necesario, pues
constituye el punto de referencia para la evaluación objetiva de la calidad.
3. Marco teórico-metodológico. El marco normativo aporta los elementos de lo que se va a
evaluar, y a continuación será necesario determinar cómo se evaluará. Esto se forma por los
conceptos, ideas y métodos sobre calidad que han desarrollado diversas instituciones,
organismos internacionales de normalización y expertos: completitud, actualización –factor
temporal- consistencia, exactitud de posición, etc. El estudio de las diversas normas y métodos
de prueba llevará a la adopción de aquéllos se consideren adecuados. En síntesis, se trata de
desarrollar un modelo de calidad propio, adaptado a nuestra realidad y a nuestros procesos de
producción geográfica.

4. Ejecución. Dado que las fases anteriores constituyen la preparación de los trabajos, lo
siguiente es llevarlos a cabo. Se prevé una etapa de diseño de pruebas, dado que existen
diferentes métodos (test) para medir los componentes de calidad -sobre todo en lo referente a
exactitud posicional-, y será necesario seleccionar los más adecuados. Esto, por supuesto,
sería integrado en su momento al modelo de calidad. Ahora bien, todo lo anterior se refiere a los
trabajos para que los productores determinen la calidad de sus productos (lo cual significa
básicamente establecer sus márgenes de error), por lo que ya serán capaces de declararla y
eso permitirá eventualmente la verificación de la misma por parte de los usuarios.

Este gran proyecto tiene un resultado principal: ligar a los datos espaciales la categoría de
confiabilidad.

Conclusiones

El creciente auge y utilización de la informática en los Sistemas de Información Geográfica


(SIG) ha facilitado el uso y análisis de datos espaciales dentro de muchas organizaciones en
diferentes disciplinas. Los errores e inconsistencias de los datos y mapas fuente no eran
evidentes antes de que se utilizaran computadoras para procesar, analizar y tomar decisiones
basados en dicha información. Sin embargo, ahora el tratamiento y procesamiento digital a
través de los SIG pueden evidenciar las debilidades de los datos y la necesidad de documentar
tanto la calidad de los datos fuente como la de los productos que se obtienen a partir de ellos.
El uso de la tecnología no garantiza la calidad de los datos y puede ocasionar errores en los
resultados… más rápido.

La información sobre la calidad de los datos espaciales se está convirtiendo en un factor


decisivo para su utilización. El propósito de describir la calidad de datos espaciales es que el
generador difunda sus productos y facilite al usuario la selección de los que mejor satisfagan las
necesidades o requisitos. Además, los productos que cuentan con su documentación de calidad
siempre inspiran mayor confianza que los que carecen de ella.

El satisfacer las necesidades de los usuarios (cada vez más exigentes), la oportunidad en su
entrega y las facilidades para su uso involucran los conceptos de calidad de datos espaciales.
El valor de los datos depende de su calidad; serán valiosos en la medida en que sean útiles
para tomar decisiones acertadas.

Sin embargo, la información es un recurso costoso y por este motivo, la información de calidad
y los recursos para utilizarla al máximo no siempre están disponibles, en particular en los países
en desarrollo.

Actualmente existen numerosas instituciones públicas y privadas que generan datos espaciales;
sin embargo, esta actividad no se realiza en forma organizada, por lo que se tienen datos con
características disímiles, duplicidad de esfuerzos y datos no apegados al marco normativo de
los SNEIG, resultado de los enfoques parciales y locales bajo los cuales se produce la
información.

En México los avances en la generación de datos e información han sido destacables, se


cuenta con normas para su generación, Sistemas de Información Geográfica en constante
mejora y desarrollo; sin embargo, es necesario que se determine y documente la calidad de los
datos espaciales y productos que se generan, pues esto incluye el beneficio del apego a la
normatividad con el objetivo común de lograr la comparabilidad, compartibilidad,
compatibilidad, confiabilidad, consistencia y completitud de los datos.

La calidad de los datos espaciales depende en buena medida de las normas para su
generación, las cuales aseguran o previenen la consistencia e interoperabilidad de los datos.
Para que los datos puedan ser aprovechados a través de Sistemas de Información Geográfica,
estos deberán ser interoperables, aspecto que se logra a través de la aplicación de las
normas. Ningún generador de datos no puede elaborar sus propias normas de manera aislada;
se deben tomar como base las desarrolladas en el marco de los SNEIG, lo cual permitirá
compatibilidad entre la producción de los datos y su empleo en los SIG.

El tener control de la calidad de los datos espaciales es una labor indispensable en la


producción de datos espaciales y productos derivados, por los perjuicios que se pueden derivar
de un producto con “calidad pobre”, o mejor dicho, sin calidad. Por ello todas las Instituciones
generadoras de datos espaciales, productos y servicios deben disponer de métodos y normas
adecuadas para estos fines. Obviamente al implementar este tipo de normas se debe tomar en
consideración el coste económico, el cual en el fondo va ligado a las exigencias del uso (por
ejemplo, investigación, ingeniería, planificación o inventario).

Si bien la responsabilidad de la información estará en el nivel en que se genera, también los


usuarios de los datos deberán participar, dando a conocer sus requerimientos y exigiendo su
cumplimiento.

Varios de los elementos para documentar la calidad (escala fuente, actualidad, exactitud,
corrección, etc.) ya son objeto de atención por productores y usuarios, quienes reconocen su
importancia dentro del SIG, pero muchas veces no son entendidos como partes que
relacionadas entre sí determinan un concepto denominado calidad. Es necesario entonces dar
un salto conceptual y adoptar este enfoque, pues el analizar integralmente estos elementos
nos dirá más que si se les estudia por separado.

Para lograr lo anterior es necesario desarrollar un modelo de calidad para datos espaciales, que
partirá del estudio de las normas existentes. Es necesario continuar con el desarrollo de un
marco normativo, pues éste es el parámetro para cubrir uno de los dos grandes aspectos de la
calidad, que es la medición (factor cuantitativo) del cumplimiento de los lineamientos del
producto.

El otro gran aspecto de la calidad, la aplicabilidad del producto para necesidades específicas,
(factor no cuantitativo), tiene actualmente menos desarrollo que los elementos cuantitativos. Es
necesario diseñar también estrategias en este sentido: los productores aprenderán a
documentar el linaje (genealogía) y el objetivo de sus productos. Asimismo se buscarán formas
que les permitan conocer el uso que se da a sus productos, para que lo documenten también.

Finalmente, se puede concluir que las principales razones que existen para la adopción de la
calidad son:

- Satisfacer las necesidades de los usuarios, cada vez más exigentes


- Mejorar las características de los datos
- Facilitar la compartición, intercambio e interoperabilidad de los datos
- Evitar la redundancia de datos y duplicidad de esfuerzos y con ello disminuir tiempos,
así como los costos humanos, materiales y tecnológicos

La disponibilidad de datos espaciales en forma oportuna y con la calidad requerida por los
usuarios asegura un mejor proceso de toma de decisiones para el desarrollo sostenible, el
bienestar de la sociedad y el desarrollo del país.

REFERENCIAS

- Ariza, Francisco, 2002. Calidad en la Producción Cartográfica. 389 pp. Madrid, Ra-Ma
Editorial.
- International Organization for Standardization, 2002. Norma 19113, Principios de
calidad. 30 pp.
- International Organization for Standardization, 2002. Norma 19114, Procedimientos
de evaluación de la calidad. 30 pp.
- Moles i Plaza, Ramón, 2001. Derecho y calidad. El régimen jurídico de la normalización
técnica. 332 pp. Barcelona, Ariel.

Вам также может понравиться