Вы находитесь на странице: 1из 26

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/267222718

Estimación de la Posición de un Robot Móvil

Article

CITATIONS READS

7 1,942

2 authors:

Javier González-Jiménez Anibal Ollero


University of Malaga Universidad de Sevilla
265 PUBLICATIONS   3,107 CITATIONS    511 PUBLICATIONS   6,574 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Contributions to tabular Reinforcement Learning for multiple Robotics Tasks View project

MarineUAS View project

All content following this page was uploaded by Javier González-Jiménez on 17 January 2015.

The user has requested enhancement of the downloaded file.


Estimación de la Posición de un Robot Móvil

Javier González Jiménez† y Anibal Ollero Baturone††


† Dpto. de Ingeniería de Sistemas y Automática. Universidad de Málaga.
Campus de Teatinos. 29080 Málaga
Fax: 95-2133361. E-mail: jgonzalez@ctima.uma.es
†† Dpto. Ingenieria de Sistemas y Automática. Universidad de Sevilla.
Avda. Reina Mercedes s/n. 41012 Sevilla.
Fax: 95- 4556849. E-mail: aollero@cartuja.us.es

Resumen

En este artículo se revisan los métodos existentes para la estimación de la posición


de robots móviles y vehículos autónomos. Se introduce el problema de la estimación, y
se distingue entre los estimadores que no requieren una adquisición e interpretación de
información del entorno del robot (estimadores explícitos de posición), y los estimadores
basados en la percepción del entorno. En el primer caso se incluyen: métodos basados en
la odometría; sistemas de navegación inercial; estimación absoluta de la posición basada
en estaciones transmisión, y en particular los sistemas de posicionamiento global (GPS);
y estimación de la posición mediante triangulación con respecto a balizas situadas en el
entorno (no se requiere una interpretación significativa de las medidas del entorno). En
los estimadores basados en la percepción del entorno se distingue entre el empleo de
sensores activos (láser, sónares), y los sensores pasivos (cámaras de vídeo). Asimismo,
se contemplan técnicas alternativas para establecer la correspondencia entre los datos
procedentes del entorno, distinguiéndose entre las basadas en la extracción previa de
características y los métodos icónicos.

Abstract

This paper reviews the methods for position estimation of mobile robots and
autonomous vehicles. The paper introduces the position estimation problem and classifies
the existing methods for solving it into explicit estimation methods and methods based on
the environment perception. The explicit methods do not require acquisition and
interpretation of robot environment information. These include dead reckoning
techniques, inertial navigation systems, absolute position estimation based on
transmission stations, particularly the GPS, and triangulation techniques by using
beacons. Position estimation methods based on the environment perception are also
classified depending on the nature of the sensor: active (laser, sonars) and passive (video
cameras). Furthermore, two different techniques are considered for matching environment
data: feature based methods and iconic methods.

1
1. Introducción

Los robots móviles se caracterizan por su capacidad de desplazarse de forma


autónoma en un entorno desconocido o conocido sólo parcialmente. Sus aplicaciones de
cubren una gran variedad de campos, entre los cuales se incluyen trabajos subterráneos
(minería, construcción de túneles, etc.), tareas submarinas (inspección de oleoductos,
mediciones, misiones de búsqueda y rescate, etc.), misiones espaciales y exploración
planetaria (recogida de muestras, mantenimiento de estaciones orbitales, etc.), vigilancia e
intervención de seguridad (desactivación de explosivos, operación en zonas radioactivas,
etc.), aplicaciones militares, y otros muchos. En todas estas aplicaciones la justificación
más importante para la aplicación de la robótica es la dificultad o imposibilidad de
intervención humana, bien directa o teleoperada.

El calificativo de “autónomo” hace referencia a la capacidad de percibir, modelar,


planificar y actuar para alcanzar unos objetivos sin la intervención, o con una
intervención muy pequeña, de supervisores humanos. Esto delimita la frontera entre los
robots móviles y los vehículos o máquinas teleoperadas, donde un operador humano
realiza de forma remota las tareas anteriores. De igual manera, no pueden ser
considerados robots móviles, los denominados vehículos autoguiados, los cuales se
limitan a seguir caminos preestablecidos (pintados en el suelo, en bandas magnéticas,
etc.) o a actuar de forma repetitiva. Este es el caso de los carros filo-guiados que a
menudo se encuentran en fábricas y escenarios industriales, y cuya misión consiste en
repetir una y otra vez determinados caminos y acciones.

Un robot móvil es un sistema en el que cabe identificar diversos subsistemas de


percepción, planificación, control de movimientos y locomoción que interaccionan entre
sí. El sistema de percepción permite que el robot sea capaz de hacer frente a situaciones
cambiantes del entorno, así como a reaccionar ante posibles eventos inesperados mientras
navega, lo que exige la utilización de un sistema sensorial que suministre la información
del entorno. Esta información requerida debe permitir al robot realizar tres tareas
fundamentales: estimar su posición y orientación, mantener actualizado el mapa del
entorno y detectar los posibles obstáculos. Las dificultades para llevar a cabo estas tareas
surgen como consecuencia de la muy distinta naturaleza de los procesamientos requeridos
en cada uno de estos cometidos. Así, mientras que para la estimación de la posición y la
construcción (o actualización) del mapa del entorno se tienen en cuenta sobre todo
características como la precisión, resolución espacial, alcance, etc., en la detección de
obstáculos el tiempo entre observaciones normalmente debe ser mucho menor, resultando
vital el disponer de la información ya procesada lo más rápidamente posible. En este caso,
las características anteriores no son primordiales.

Por todo ello, un robot móvil rara vez va equipado con un único sensor para
realizar todas estas tareas, sino que la práctica más habitual consiste en combinar dentro

2
del sistema sensorial varios sensores que en mayor o menor medida se complementan
[45]. De este modo es posible encontrar robots donde la estimación de la posición1 y la
actualización del mapa recaen sobre cámaras de vídeo ó escáneres láser, mientras que la
detección de obstáculos se realiza mediante sónares [58]. En este sentido, es importante
destacar la estrecha relación que existe entre el problema de la estimación de la posición y
el de la construcción del mapa del entorno, siendo necesario la localización precisa del
robot para poder llevar a cabo la construcción del mapa, y viceversa.

A veces también, con objeto de reducir la incertidumbre o simplemente de validar


la información adquirida, se emplean varios sensores redundantes, siendo necesario, en tal
caso, recurrir a mecanismos de "fusión" de datos que permitan integrar conjuntamente la
información obtenida por cada uno de los sensores.

Para que un robot móvil pueda satisfactoriamente afrontar tareas como generar
trayectorias, evitar obstáculos, monitorizar la ejecución, etc. se requiere que este sea
capaz de determinar su localización (posición y orientación) con respecto a un sistema de
referencia absoluto. De forma general, determinar la localización de un robot móvil
equivale a encontrar las componentes de translación (tx, ty, tz) y de rotación (θx, θy, θz)
del sistema de coordenadas solidario al robot (y por tanto móvil) con respecto a un
sistema absoluto. En particular, en este trabajo se considera el caso bidimensional (con
mucho el más común en las aplicaciones actuales de los robots móviles), donde el robot
se mueve con tres posibles grados de libertad. Así, el problema se reduce a encontrar la
terna (tx, ty, θ) asociada al sistema móvil del vehículo, donde (tx, ty) representa su
posición y θ representa su orientación (ver Figura 1).

Y y
x

θ
ty

tx X

Figura 1. Sistema de referencia móvil asociado al robot.

La estimación de la posición de un vehículo ha recibido una considerable atención


por parte de numerosos investigadores, proponiéndose una gran variedad de técnicas para

1. A lo largo de este artículo se empleará la expresión “estimación de la posición” para referirse tanto a la
obtención de la posición como de la orientación del vehículo.

3
ello. Estas técnicas varían significativamente en función del tipo de entorno en el cual el
robot móvil ha de navegar, del conocimiento que se tenga de dicho entorno, de la tarea a
realizar, y del tipo de sensor con el que el robot va equipado.

La mayoría de los robots móviles van provistos de codificadores en los ejes de


movimiento que permiten estimar en cada instante la localización de éste empleando un
modelo de locomoción. Sin embargo, esta estimación no resulta suficientemente precisa
para la mayoría de las aplicaciones. El motivo no es debido tanto a los errores que éste
pudiera cometer sino, fundamentalmente, al hecho de que estos se van acumulando
durante la navegación, lo que origina que la región de incertidumbre asociada a la
posición y orientación del robot vaya creciendo más y más conforme el robot se mueve
[60]. De esta forma, cada vez que ésta supere unos determinados límites, el robot necesita
de algún sistema de posicionamiento "externo" que reduzca esta incertidumbre [49].
Estos límites vienen impuestos por el tipo de escenario, la naturaleza de la tarea a realizar
y la precisión requerida en los movimientos. Asimismo, la precisión alcanzada con el
sistema de posicionamiento dependerá de la técnica y del sensor utilizados.

ESTIMACION DE LA POSICION

Estimadores Estimadores basados en


Explícitos Percepción del Entorno

Medidas Estaciones de Sensores Técnicas de


Internas Transmisión Balizas Emparejamiento
utilizados

Odometria Terrestres Infrarrojos Video Icónicas


Cámaras
INS Orbitales Video Basadas en
(GPS) Cámaras Activos: características
otros láser, sónar, …

Figura 2. Cuadro resumen de los distintos sistemas de estimación de la


posición.

En este artículo se clasifican y describen las principales técnicas utilizadas para la


estimación de la posición y orientación de un vehículo autónomo. Entre las distintas
clasificaciones posibles (ver por ejemplo [9], [14]), se ha optado por distinguir en un
primer nivel entre estimadores explícitos y estimadores basados en la percepción del
entorno (ver Figura 2).

Los estimadores explícitos proporcionan la posición y orientación del robot


directamente a partir de medidas sin que exista un procesamiento de información para
interpretar el entorno. Por el contrario, los estimadores basados en la percepción del
entorno utilizan sensores que suministran información sobre éste a partir de la cual

4
infieren la localización del vehículo mediante comparación de ésta con otros datos o
modelo conocido (mapa, marcas naturales, objetos, etc.).

2. El Problema de la Estimación

Como se ha puesto de manifiesto en la sección anterior, la localización autónoma


de un vehículo se plantea como un problema de estimación de los parámetros (tx, ty, θ) a
partir de una serie de medidas proporcionadas por los sensores. Puesto que las medidas
llevan inevitablemente asociadas una cierta componente de ruido, tanto las propias
medidas como las estimaciones realizadas a partir de éstas tendrán una naturaleza
aleatoria. Nótese que, si no existiesen ruidos, el problema de estimar los parámetros que
definen la posición y la orientación de un vehículo se reduciría a resolver las ecuaciones
de un modelo matemático (normalmente algebraicas, si los modelos considerados son
estáticos).

Para cuantificar la bondad de las estimaciones se utilizan distintos criterios que


pueden ser interpretados en base a unos índices estadísticos. De esta forma, el problema
de la estimación puede ser formulado como un problema de optimización de un
determinado índice. Entre los criterios más utilizados destacan el de mínimos cuadrados y
el de máxima verosimilitud [20], [37], [44].

En el criterio de mínimos cuadrados se trata de obtener una estimación del vector


de L parámetros, que minimiza el índice:

J = y − y$ = ( y − y$ ) ( y − y$ ) = ∑ ( y i − y$ i )
n
T 2
(1)
i=1

T
siendo y = (y1, y2, . . .,yn) un conjunto de N medidas, e y$ = (y$ 1 , y$ 1 , . . ., y$ 1 ) T .valores
calculados a partir de mediante el modelo adoptado para el sistema. Por ejemplo, para un
el sistema lineal estático se tiene:

$
y$ = MΘ (2)

donde M es una matriz de N filas y L columnas ( N ≥ L ).

La estimación de mínimos cuadrados también permite la ponderación escalar de


los errores o residuos, manejándose en este caso el índice:

5
J = ( y − y$ ) W( y − y$ ) = ∑ w i ( y i − y$ i ) = ∑ w i e i 2
n n
T 2
(3)
i=1 i=1

donde ei es el error o residuo correspondiente a la medida yi, y W es una matriz diagonal


de ponderación cuyos elementos son wi, i=1, …, N.

El criterio de máxima verosimilitud se basa en la definición de una función L(y,Θ)


denominada de "verosimilitud" que normalmente es la función de probabilidad
condicional p(y|Θ). Suponiendo que se dispone de un conjunto de medidas
T
independientes y = (y1, y2, . . .,yn) , se trata de encontrar los parámetros que hacen que las
medidas tengan la mayor probabilidad de ocurrir. Teniendo en cuenta que

p( y , Θ )
L ( y , Θ) = p( y Θ) = (4)
p(Θ )

el problema puede resolverse a partir del conocimiento de la función de densidad de


probabilidad conjunta p(y, Θ) y, de algún conocimiento a priori de Θ que permita
establecer la función de densidad de probabilidad p(Θ).

Es importante señalar que, cuando el ruido asociado a las medidas se modela


como ruido blanco gaussiano con media nula y matriz de covarianza diagonal2, puede
demostrarse que el estimador de máxima verosimilitud es equivalente al estimador de
mínimos cuadrados ponderado dado por la ecuación (3) [44], [57]

Además de estos, existen otros criterios de estimación basados en la probabilidad


condicional a posteriori p(Θ | y) [20], [44].

Asimismo, cuando el sistema que se considera es dinámico, las magnitudes del


vector de parámetros a estimar variarán con el tiempo, lo cual hace que el problema
resulte más complejo. En estos casos, se recurre a métodos de estimación recurrente como
el filtro de Kalman, donde la estrategia de estimación está basada en un primer ciclo de
propagación de las medias e incertidumbres de los parámetros, y en un segundo ciclo,
donde los parámetros son actualizados a partir de las nuevas observaciones [29],[57]. El

2. Esta suposición significa que no existe correlación en los ruidos asociados a las distintas medidas.

6
filtro de Kalman es también una herramienta fundamental cuando en el proceso de
estimación intervienen medidas redundantes proporcionadas por diferentes sensores
[15],[17].

3. Estimación Explícita de la Posición

En la categoría de estimación explícita se consideran todos aquellos sistemas


capaces de estimar la posición del vehículo sin que ello exija una interpretación del
entorno.

Dentro de los sistemas de estimación explícita pueden distinguirse dos grupos


claros: estimación basada en medidas internas, y estimación basada en estaciones de
transmisión. Los primeros trabajan exclusivamente con sensores integrados en el vehículo
como codificadores, giróscopos, buscadores de norte, acelerómeros, tacómetros, etc., y
sin ningún tipo de información exterior. Los segundos, por el contrario, están
configurados en base a dos unidades bien diferenciadas. Por un lado, la unidad montada
sobre el vehículo y, por otro, la unidad o unidades externas que necesitan ser emplazadas
en posiciones conocidas del entorno. Generalmente, la unidad montada sobre el vehículo
actúa como sensor receptor, mientras que las externas actúan como emisores o señales de
referencias.

Obsérvese que, en esta clasificación, las unidades emplazadas en el medio no


tienen por qué ser activas. Así, por ejemplo, un sistema basado en la localización
mediante cámaras de vídeo de marcas artificiales colocadas a tal fin en el entorno (codigo
de barras, señales, etc.), será englobado dentro de los estimadores explícitos, puesto que,
aunque puede entenderse que este proceso conlleva la percepción del entorno, la posición
no es estimada a partir del análisis ó interpretación del entorno percibido, sino que es
determinado de una forma más o menos directa por triangulación.

3.1. Estimación Explícita basada en Medidas Internas

La forma más simple de estimar la posición y orientación de un robot móvil


consiste en integrar la trayectoria recorrida por éste a partir de una serie medidas internas:
vueltas dadas por las ruedas, velocidades, aceleraciones, cambios de orientaciones, etc.
En función de la información que se utilice, pueden distinguirse dos grupos
fundamentales: sistemas odométricos y sistemas de navegación inercial.

3.1.1. Sistema odométrico

La odometría es una técnica bien antigua que se remonta a la época de Arquímides


[48] y que tiene por objeto estimar la posición y orientación de un vehículo a partir del

7
número de vueltas dadas por sus ruedas. En la actualidad, para llevar la cuenta del
número de vueltas dadas (y fracciones de éstas) se utilizan codificadores ópticos de
elevada precisión montados sobre los ejes. Obviamente, para la estimación se requiere el
registro odométrico de al menos un par de ruedas del vehículo.

θ
d P

R
Figura 3. Dibujo esquemático de un vehículo triciclo.

Para ilustrar el modo de operar de esta técnica, considérese el vehículo mostrado


en la figura 3, en cuyas ruedas traseras se han colocado sendos codificadores. Aunque es
posible escoger en el vehículo distintos puntos de referencia para el guiado del mismo,
supóngase que se toma el punto medio entre ambas ruedas (punto P de la figura 3). La
distancia recorrida en un intervalo de tiempo ∆t por el punto P viene dado por:

1
∆s = ( ∆sR + ∆sL ) (5)
2

donde sR y sL son las distancias recorridas por las ruedas derecha e izquierda,
respectivamente. La variación en la orientación del vehículo ∆θ, viene dada por:

1
∆θ = ( ∆s R − ∆s L ) (6)
d

donde “d” es la distancia entre ambas ruedas.

Mediante integración de las ecuaciones (5) y (6) se obtiene, respectivamente:

1
s(t) = (s (t) + sL (t)) (7)
2 R

8
1
θ( t ) = θ(0) + (s ( t ) − sL ( t )) (8)
d R

donde s(t) es la distancia recorrida por el punto P y θ(t) es la orientación del vehículo,
ambas para un tiempo dado t.

La ecuación (8) permite conocer la orientación del vehículo en cualquier instante


de tiempo. Por tanto, las coordenadas x e y del punto P pueden obtenerse mediante las
ecuaciones:

t
1
x( t ) = x(0) + ∫ (&sR ( t ) + &sL ( t )) cos(θ( t ))dt
0
2

t
1
y( t ) = y(0) + ∫ (&sR ( t ) + &sL ( t )) sen(θ( t ))dt
0
2

La gran ventaja de la odometría reside en su simplicidad y bajo coste. Sin


embargo, además de necesitar una frecuente calibración como consecuencia del desgaste
y pérdida de presión de las ruedas, desajuste de los ejes, etc. [60], esta técnica es
vulnerable a considerables imprecisiones causadas fundamentalmente por el
deslizamiento de las ruedas e irregularidades en el suelo. Otro hecho que afecta a la
estimación son las variaciones en la carga transportada por el vehículo, si bien, en este
caso, es posible diseñar un modelo que, a partir del peso y distribución de la carga,
permita corregir las desviaciones introducidas [59].

3.1.2. Sistema de Navegación Inercial

Los Sistemas de Navegación Inercial (INS) estiman la posición y orientación del


vehículo empleando medidas de las aceleraciones y ángulos de orientación. La primera
integración de las aceleraciones proporciona la velocidad y la segunda la posición.

Los acelerómetros suelen estar basados en sistemas pendulares. La precisión del


acelerómetro resulta crítica, ya que, debido a la doble integración de las aceleraciones,
incluso pequeños errores cometidos por éste repercuten notablemente en la posición
estimada. Nótese que en numerosos robots móviles las aceleraciones son pequeñas con lo
que la relación señal/ruido es también pequeña lo que complica la estimación.

9
Para medir los ángulos de orientación se emplean giróscopos que pueden ser
mecánicos (masa giratoria) u ópticos (de anillo láser ó de fibra óptica) [34]. Es posible
también medir el ángulo de orientación empleado brújulas.

Los acelerómetros y giróscopos pueden ir acoplados al vehículo, bien a través de


una base estabilizadora que impidan los movimientos de "cabeceo" del sistema, o bien,
fijos a éste. En este segundo caso, se requieren medidas adicionales acerca de los ángulos
de balanceo para así poder efectuar las oportunas correcciones (por ejemplo mediante
inclinómetros) [12].

A diferencia de los sistemas odométricos, los sistemas de navegación inercial no


se ven afectados por los problemas derivados de la interacción del vehículo con el suelo,
además de que pueden corregir los efectos de las ondulaciones e irregularidades del
terreno. Esto hace que, en la práctica, sean mucho más fiables y precisos que los sistemas
basados en odometría, aunque como contrapartida, son más frágiles y caros que estos.

Ambas técnicas son fáciles de implementar, pero presentan un grave


inconveniente como estimadores de la posición absoluta: los errores se van acumulando
y, por tanto, la incertidumbre crece proporcionalmente al espacio recorrido. Por este
motivo, ambos sistemas no suelen ser utilizados en solitario, sino que generalmente, son
complementados con algún otro sistema de posicionamiento absoluto que reduzca
periódicamente dicha incertidumbre (generalmente basados en la percepción del entorno)
[61]. En estos casos, las estimaciones del sistema odométrico o de navegación inercial
juegan un doble papel. Por un lado, proporcionan de forma continua estimaciones
relativas a la última localización absoluta calculada y, por otro, sirven como primeras
aproximaciones (estimaciones iniciales) para el segundo estimador.

3.2. Estimación basada en Estaciones de Transmisión

El uso de este tipo de sistemas de posicionamiento absoluto ha venido siendo


utilizado desde hace varias décadas en aplicaciones marítimas y aeronáuticas. En los
últimos años, con la aparición de robots móviles para exteriores y, en particular, de
vehículos autónomos que navegan todo-terreno ("cross-country navigation"), estos
sistemas han cobrado un especial interés dentro de la comunidad robótica. La ventaja más
sobresaliente de este técnica consiste en proporcionar la localización absoluta del
vehículo en un área suficientemente grande y sin requerir estructuración alguna del
entorno. Estas características hacen especialmente adecuada su utilización para
aplicaciones donde, por lo general, el vehículo ha de moverse por escenarios muy
diversos, recorriendo grandes distancias (carreteras, caminos forestales, campo a través,
parajes semidesérticos, etc.).

10
La configuración de estos sistemas está basada en un receptor a bordo del
vehículo y un conjunto de estaciones transmisoras de ondas de radio3, si bien cabe
considerar dos diferentes grupos: sistemas de posicionamiento mediante estaciones fijas y
sistemas de posicionamiento mediante estaciones móviles.

Los sistemas de estaciones fijas se han empleado desde hace varios decenios en la
navegación de barcos, submarinos y aviones. Utilizan fundamentalmente señales de radio
de media y alta frecuencia que son emitidas por estaciones terrestres fijas. En particular,
la invención en la década de los 50 del método conocido como navegación hiperbólica ha
tenido una gran repercusión sobre la navegación tanto aérea como marítima [19].

Los sistemas de estaciones móviles operando desde satélites son hoy día los de
mayor interés para robots móviles. Poco después de que el primer satélite artificial fuera
puesto en órbita en 1957, se inventó el primer sistema de posicionamiento basado en
satélites. Este sistema, conocido como TRANSIT, estaba basado en el cambio de
frecuencia experimentado por las señales de radio transmitidas por los satélites (el
conocido efecto Doppler) [50].

Aunque este tipo de sistemas ha sido ampliamente utilizado en aplicaciones


militares (misiles, aviación, submarinos) y en la navegación civil (fundamentalmente
aviación) hoy en día ha quedado relegado por un sistema similar pero mucho más potente
denominado GPS ("Global Positioning System") [25], [21]. Este ambicioso proyecto,
diseñado por el Departamento de Defensa de los Estados Unidos, tenía como objetivo
reemplazar a los sistemas anteriores. El sistema utiliza 24 satélites en 6 órbitas casi
circulares a una altitud de 12.000 millas (4 satélites por órbita)(ver Figura 4). Cada uno
de ellos transmite dos señales de radio en alta frecuencia, moduladas con un pseudo-ruido
binario en las que se codifican de forma compleja información sobre el instante en que la
señal fue transmitida, información orbital, etc. [32]. Utilizando al menos 3 satélites, el
receptor calcula por triangulación la altitud, latitud y altura del vehículo de forma
"instantánea y continúa" (tiempos entre 30 y 60ns.) También puede determinar la
velocidad a partir del desplazamiento en frecuencias mediante el efecto Doppler [21].

3. Este tipo de sistemas de posicionamiento es también conocido como Radio-Navegación.

11
Figura 4. Los 24 satélites del GPS dan una vuelta a la Tierra cada 12horas a
una altura de 20200km. En cada una de las 6 órbitas circulan 4 satélites que
continuamente transmiten un código pseudo-aleatorio en dos frecuencias de la
banda de los 1000 MHz.

La precisión del GPS depende de numerosos factores, algunos comunes a otros


sistemas de posicionamiento mediante radio (prestaciones del receptor, inestabilidades en
el recorrido de la transmisión, posición relativa del receptor con respecto a las estaciones,
etc), y otros, específicos del GPS (alteración de la velocidad de propagación de la señal de
radio por la ionosfera, errores en el posicionamiento orbital, etc.). Esta precisión puede
llegar a ser de 10 a 20 metros para vehículos en movimiento, y algo inferiores para
medidas estacionarias. Las medidas pueden llegar a ser incluso más precisas (con la
utilización simultánea de un mayor número de satélites). La estimación precisa de
posición mediante GPS ha estado restringida tradicionalmente a aplicaciones militares.
Sin embargo, en los últimos años, el empleo de GPS diferencial, basada en la corrección
de error utilizando una estación base de coordenadas conocidas, está permitiendo
incrementar de forma importante la precisión hasta un par de metros (ver Figura 5).

12
Transmision de
errores

BASE REMOTA
Posición conocida Posición desconocida

Figura 5. El GPS diferencial utiliza una estación base de posición conocida


para corregir la posición remota.

3.3. Estimación mediante Balizas

Este tipo de sistemas permite determinar la posición del vehículo en un entorno


restringido mediante el emplazamiento en el escenario de navegación de un determinado
número de balizas de posición conocida ("beacons"). Aunque puede entenderse que este
proceso conlleva la percepción del entorno, la posición no se estima a partir del análisis ó
interpretación del entorno percibido, sino que es determinado de una forma más o menos
directa en base al principio de triangulación, bien a partir de medidas de distancias, de
ángulos ó combinaciones de los dos. El número mínimo de balizas requeridas dependerá
del tipo de sistema empleado.

Para el caso que se está considerando de navegación en el plano, los ángulos de


observación con respecto al eje x de dos balizas son suficientes (Figura 6a). Si las
medidas se refieren a ángulos entre balizas, serán necesarias tres de ellas (Figura 6b).
Cuando la información que se maneja son distancias, la solución obtenida utilizando dos
balizas puede ser insuficiente si nó se dispone de alguna información adicional que
permita resolver la ambigüedad resultante (Figura 6c). Por último, también pueden
combinarse información angular y de distancia, siendo en este caso necesaria la
observación de una única baliza (Figura 6d), aunque para ello se requiere un sensor más
complejo que sea capaz de obtener ambas medidas.

13
BALIZA 1

BALIZA 1 BALIZA 2

BALIZA 2 θ2 BALIZA 3
θ2 θ1
θ1

ROBOT ROBOT
(a) (b)

BALIZA 1

d1 BALIZA 1

θ2

d2

ROBOT
BALIZA 2 ROBOT

(c) (d)

Figura 6. Diferentes posibilidades de triangulación. a) Angulos absolutos de


referencia de las balizas. b) Angulos observados entre balizas. c) Distancias a
las balizas. d) Angulo y distancia a una baliza.

El análisis anterior sobre el número mínimo de balizas requeridas corresponde a


una situación ideal, donde tanto las medidas como las posiciones de las balizas están libre
de errores. En la práctica, sin embargo, con objeto de minimizar el error cometido en la
estimación, suelen utilizarse un mayor número de ellas [19], [8]

En cuanto a la implantación física de un sistema de posicionamiento de este tipo,


existen distintas configuraciones como resultado de combinar distintos clases de sensores
y balizas. Una posibilidad es dotar al vehículo de un receptor giratorio que rastree el
entorno en busca de señales emitidas por las balizas. Un ejemplo de este tipo es el
descrito en [39], consistente en una serie de balizas de luz infrarroja y un dispositivo
óptico giratorio abordo, capaz de detectar este tipo de luz. Conocida la velocidad de giro
del receptor óptico, el sistema determina los ángulos entre balizas consecutivas a partir
del tiempo que transcurre entre las detecciones de éstas. La posición del robot se estima a
partir de estos ángulos mediante relaciones trigonométricas, mientras que la orientación
se obtiene directamente midiendo el ángulo entre cualquiera de las balizas del entorno y
otra colocada abordo con tal fin [39].

Una configuración diferente consiste en situar en el entorno un conjunto de marcas


especiales como señales luminosas, códigos de barras, etc., y dotar al vehículo de una o
varias cámaras CCD que exploren el entorno en busca de ellas. De especial relevancia es
el sistema propuesto por Cao [7], donde se emplea una única cámara provista de una lente

14
especial omnidireccional que proporciona un ángulo de visión de 360 grados sin
necesidad de recurrir a elementos mecánicos. Las balizas utilizadas son un conjunto de
puntos luminosos distribuidos según un determinado patrón, de tal forma que estos son
fácilmente reconocibles por el sistema de visión.

En definitiva, la precisión y fiabilidad que este tipo de estimación proporciona


depende fundamentalmente del tipo de señal utilizada (infrarrojos, láser, radio,
ultrasonidos, etc.), de las características del sensor, y del número de balizas utilizadas en
la triangulación, si bien, en general, este método está considerado como uno de los más
precisos. Las principales desventajas radican en la necesidad, tanto de configurar
apropiadamente el entorno de trabajo, como de garantizar que un suficiente número de
estas señales quede en todo momento libre de oclusiones y dentro del campo visual del
sensor. También deben tenerse en cuenta los problemas que pueden originar las
condiciones ambientales de iluminación y ruido (acústico, electromagnético, etc.). Todo
ello impide la utilización de esta técnica en entornos muy dinámicos o no-estructurados.

4. Estimación mediante Percepción del Entorno

Una alternativa a los anteriores métodos de estimación de la posición consiste en


dotar al robot móvil de un sistema sensorial capaz de proporcionar suficiente información
del entorno como para que éste pueda de forma autónoma inferir su localización. El
sistema sensorial puede operar en base a distintos tipos de sensores (cámaras CCD,
sónares, escáner láser, etc.) y, seleccionando determinados tipos de datos u objetos a
partir del conjunto de información adquirida (marcas naturales, puntos de interés, entorno
completo percibido, etc.). En cualquier caso, la localización del vehículo se determina a
través del emparejamiento de los datos extraídos del entorno por el sistema sensorial, con
datos previamente conocidos acerca de éste. Esta información previa requerida puede
provenir de un modelo conocido del entorno, o de anteriores observaciones. Asimismo, el
emparejamiento de los datos puede realizarse según distintas estrategias.

En esta sección, se presenta en primer lugar una breve descripción de los


principales sensores utilizados para la estimación de la posición. Posteriormente, se
presentan las dos estrategias posibles para el emparejamiento de datos.

4.1. Sensores

Los sensores utilizados para la navegación de un robot móvil pueden encuadrarse


en dos grupos: activos y pasivos. Los sensores activos son aquellos que emiten algún tipo
de energía al medio (luz infrarroja, ultrasonidos, luz láser, ondas de radio, etc.) . Por
contra, los sensores denominados pasivos se limitan a captar la energía ya existente en el
medio. De este tipo son las cámaras de vídeo CCD, las cuales perciben el entorno a través
de la cantidad de luz que les llegan procedente directamente de fuente luminosas o bien a

15
través de reflexiones en los objetos del entorno. Además de las características comunes a
otras aplicaciones como la resolución, precisión, alcance, etc., para aplicaciones de robot
móviles es necesario tener muy en cuenta otras características del sensor como la
inmunidad a las variaciones de las condiciones ambientales, la robustez ante vibraciones
y otros efectos del medio y del vehículo, el tamaño, consumo, desgaste y seguridad de
funcionamiento.

4.1.1. Sensores activos

Los sensores activos proporcionan directamente medidas de distancias al entorno,


lo que les dota de unas prestaciones muy acordes con los requerimientos necesarios para
la estimación de la posición de un robot móvil. Los más utilizados son sin duda los
sónares y los sensores lásers. El principio de funcionamiento más utilizado es el
denominado "tiempo de vuelo", consistente en medir el tiempo transcurrido entre la
emisión de una señal (pulso, onda modulada, etc.) y la recepción del eco correspondiente.
A partir de esta medida y, teniendo en cuenta la velocidad de propagación de la señal, es
posible estimar la distancia a la que el objeto ha sido interceptado.

Uno de los principales inconvenientes de estos sensores surge cuando se


encuentran más de un robot móvil en el mismo área de trabajo, pudiendo producirse
interferencias entre sus sistemas sensoriales.

Los sónares, también conocidos como sensores de ultrasonidos, emiten un pulso


de presión que se propaga por el aire a la velocidad del sonido. Las dos configuraciones
más utilizadas en robots móviles son el anillo de sónares [41] y el dispositivo de rastreo
radial [11],[13]. Sus principales ventajas son su bajo coste y simplicidad. Sin embargo,
son muy vulnerables a reflexiones especulares y al medio, al tiempo que presentan una
muy pobre resolución angular (sobre 30 grados) y escasa fiabilidad para ángulos de
incidencia mayores de 15 grados. Estas limitaciones obligan en muchos casos al
desarrollo de técnicas probabilísticas, como por ejemplo la denominada "celdas de
ocupación" (“occupancy grids”), que permitan la integración de miles de lecturas
conforme el robot navega [16]. Las "celdas de ocupación" representan el espacio
mediante una matriz de celdas, cada una de las cuales viene caracterizada por una
estimación de la probabilidad de que esté ocupada por algún objeto del entorno. Estas
estimaciones son obtenidas a partir del modelo de incertidumbre de los sónares utilizados
(generalmente distibuidos en forma de anillo). La estimación de la posición se realiza
mediante una correlación a varios niveles de resolución entre el mapa global y el mapa
local obtenido desde la posición a estimar. Aunque son numerosos los trabajos en este
sentido, los resultados obtenidos hasta la fecha, en lo que a la estimación de la posición se
refiere, distan mucho de ser precisos y fiables.

En relación con los sensores láser, si bien de elevado coste todavía, están
cobrando cada vez mayor significación en el campo de los robots móviles gracias a su
precisión y fiabilidad. Utilizando uno o dos espejos convenientemente sincronizados es

16
posible direccionar el rayo de luz láser, configurándose así un sensor de rastreo
bidimensional o tridimensional, respectivamente [5]. La luz láser utilizada opera en las
proximidades del infrarrojo, lo que hace que estos sensores sean prácticamente
insensibles a las condiciones de iluminación del entorno. Asimismo, la longitud de onda
de la señal (~800nm), la reducida divergencia del haz y las características propias de la
luz láser [28], permiten obtener un eco incluso para superficies con un bajo coeficiente de
reflectividad (del orden del 10%).

Atendiendo a la manera en que la señal láser es transmitida, el funcionamiento de


estos sensores puede clasificarse en tres grupos: detección de pulsos, modulación de
amplitud y modulación de frecuencia [5]. En los primeros, la distancia se estima
midiendo el "tiempo de vuelo" entre la emisión y detección de un pulso láser Este es el
caso de los escáneres láser radiales (2D) como el Cyclone [46], el PLS. [23]. o el
Explorer [58]. Los segundos transmiten una señal láser modulada en amplitud,
obteniendo la distancia a partir de la diferencia de fases entre la onda emitida y la onda
recibida. De este tipo son los escáneres 3D utilizados en CMU(USA) como el ERIM [27]
y el Perceptron [31] ó en el LAAS.(Francia) [43]. Finalmente, los sensores láser basados
en la modulación de frecuencias se encuentran aún en fase de experimentación. En este
caso, la distancia es proporcionada por el desplazamiento en frecuencia de la onda
recibida con respecto a la emitida. En cualquiera de estos modos de funcionamiento, con
objeto de posibilitar resoluciones del orden de centímetros y dada la elevadísima
velocidad de propagación de la señal (velocidad de la luz), es imprescindible recurrir a
circuitos electrónicos de detección por debajo del nanosegundo.

Muchos de los sensores láser (fundamentalmente los 3D), además de proporcionar


un mapa de distancias al entorno, suministran una imagen de reflectancia a partir de la
cantidad de energía recibida en los ecos, aportando de esta manera información adicional
sobre las características (rugosidad, textura, color, etc.) de las superficies interceptadas
[27].

Las principales inconvenientes que presentan estos sensores están relacionados


con las partes mecánicas que incorporan (vibraciones, posicionamiento de espejos, etc.).
También existen otros problemas específicos como el intervalo de ambigüedad que
presentan las señales moduladas en amplitud, la posible influencia de la temperatura,
pérdida de ecos en superficies muy especulares, huella mixta en esquinas, etc. A pesar de
todo ello, los escáneres láser son, hoy por hoy, los sensores que ofrecen mayores
prestaciones para aplicaciones en robots móviles (precisión, fiabilidad, tiempo de
procesamiento, etc.).

4.1.2. Sensores pasivos: Cámaras de vídeo

Las cámaras de vídeo son sin duda los sensores más utilizados en percepción
gracias a las numerosas ventajas que presentan: alta resolución, velocidad en la
adquisición de la información, bajo consumo, no necesitan emplear dispositivos

17
mecánicos y son relativamente baratas. Sin embargo, la fuerte dependencia de las
condiciones ambientales de iluminación, así como la excesiva complejidad
computacional requerida a la hora de obtener información tridimensional, hacen todavía
difícil su utilización en muchas de las aplicaciones de robots móviles (en especial en
escenarios exteriores). Esta complejidad computacional es en buena parte debida a la
dificultad en resolver el problema de la correspondencia entre características de distintas
imágenes de una misma escena o con un modelo o mapa conocido a priori.

Las técnicas empleadas para estimar la posición del vehículo son variadas, si bien
pueden establecerse dos categorías. El primer grupo comprende todas aquellas técnicas
basadas en la obtención de profundidad (distancia) a objetos del entorno, donde se
incluyen, fundamentalmente, la visión estéreo y el estimación de movimiento a partir del
flujo óptico. En ambos casos se suele recurrir a operadores que primero localizan en las
imágenes un número más o menos reducido de características que posteriormente son
emparejadas con la ayuda de un conjunto de restricciones (geométricas, físicas, del
entorno, etc.) [2], [3], [18], [37], [40].

En un segundo grupo se consideran técnicas basadas en modelos del entorno


donde la estimación de la posición se lleva a cabo a partir del emparejamiento de
características extraídas de la imagen con el modelo conocido. De este tipo son, por
ejemplo, el sistema propuesto por [33] y [57], donde se extraen de una imagen los
segmentos característicos en las tres direcciones del espacio. Un procedimiento
alternativo consiste en extraer de la imagen aristas verticales para luego establecer la
correspondencia entre las direcciones de las aristas observadas y las esquinas que
aparecen en el mapa bidimensional del entorno [30], [42], [52]. El problema se formula
como una búsqueda en un árbol de "interpretaciones", donde cada nodo es una posible
interpretación de las aristas observadas, es decir, cada nodo representa un conjunto de
posibles emparejamientos para las direcciones observadas. Los resultados obtenidos con
estas técnicas dependen fuertemente de la calidad de la imagen, del número de aristas
detectadas, de la exactitud del mapa utilizado y, sobre todo, del tipo de escenario.

Lógicamente, el rango de aplicación de estos estimadores queda limitado a


entornos fuertemente estructurados. Sin embargo, también se han propuesto estimadores
para robots que navegan en escenarios abiertos. La idea consiste en otear el horizonte con
una o varias cámaras. A partir de la forma y posición del perfil de horizonte dentro de la
imagen, y suponiendo conocido el mapa topográfico de la zona (por ejemplo mediante
curvas de nivel), puede estimarse la localización del vehículo estableciendo la
correspondencia entre ambos [51], [53], [54].

18
4.2. Estrategias para el Emparejamiento de Datos: Técnicas basadas en la
Extracción de Características y Técnicas Icónicas

En el problema de la estimación de la posición mediante percepción del entorno,


como en cualquier otro problema donde se plantea la correspondencia entre dos conjuntos
de datos, se pueden seguir dos estrategias alternativas: correspondencia basada en la
extracción de características ("BEC" por simplicidad) y correspondencia icónica4. En la
primera, se extraen un conjunto de características de cada uno de los dos conjuntos a
emparejar, para luego buscar los pares de correspondencia entre elementos de ambos
conjuntos de características. Este procedimiento corresponde al enfoque típicamente
empleado en los problemas de reconocimiento de objetos [4], aunque también ha sido
ampliamente utilizado en el campo de los robots móviles para construcción de mapas y
estimación de la posición (ver por ejemplo [1], [5], [17], [23], [47]).

Por el contrario, el enfoque icónico trabaja directamente con los dos conjuntos de
datos, buscando en este caso el emparejamiento directo de sus elementos. Aunque menos
popular que el anterior, esta técnica ha sido empleada con éxito en aplicaciones diversas
como la estimación de profundidad ([36], [38]) o la correspondencia entre mapas ([16],
[23], [35], [54]). Una variante normalmente considerada como icónica es aquella que
empareja los datos directamente proporcionados por el sensor con un modelo o mapa
formado por características [10], [24].

Independientemente de cual sea el enfoque utilizado, la posición estimada viene


dada por el desplazamiento T que minimiza una función de coste E, la cual mide la
discrepancia entre los posibles pares considerados.

Para formalizar esto, considérese el conjunto de pares

1 2
Ck = (F ik, F jk)

1 2
obtenidos a partir de dos observaciones F e F de una escena (una de estas observaciones
puede ser simplemente un modelo conocido del entorno).

4. El término "icónico" procede de la traducción de la palabra inglesa "iconic", comunmente utilizada en la


visión por computador para indicar procesamiento y operaciones a nivel de pixels ó elementos de la
imagen.

19
i
De acuerdo con el tipo de metodología empleada, F j puede ser la característica j
i
extraída de la observación F (BEC) ó directamente el elemento j del conjunto de datos
i
observados F (icónica). El objetivo es encontrar la transformación T* y el conjunto de
pares de correspondencia óptimos

1 2
Ck* = (F ik*, F jk*)

tal que

2 1
F jk* ≈ Τ*( F ik*)

La obtención de estos pares de correspondencia exige, en principio, un proceso de


búsqueda en el espacio de todos los posibles pares y, por tanto, es proporcional al número
de combinaciones a explorar [26]. Así, el problema se puede plantear como un problema
de optimización de una función de coste E, donde la ecuación a resolver es:

min k,T E = mink,T ∑ d (Fij1 − T(Fjk2 )) (11)


i, j

La función distancia d(.) utilizada en la ecuación (11) puede variar dependiendo


i
de la naturaleza de las F j implicadas. Así, por ejemplo, si éstas son puntos, suele
considerarse la distancia entre estos; si son líneas se utiliza una combinación ponderada
entre el ángulo que forman y las distancias de sus respectivos vectores distancias; etc.
i
Lógicamente, la naturaleza de las F j dependerá de la metodología que se esté empleando.

Obsérvese que, en la resolución de este problema se involucran dos subproblemas:


encontrar el conjunto de pares de correspondencia óptimos Ck* y encontrar la
transformación T* que minimiza la discrepancia entre los elementos de Ck*. Ambos
subproblemas son denominados "problema de la correspondencia" y "problema de
minimización", respectivamente. Aunque algunos autores plantean y resuelven
correspondencia y minimización por separado [13], [46], resulta, sin duda, más preciso
resolverlos al mismo tiempo, a pesar de que, en principio, ello conlleve un mayor coste
computacional [10], [24]. [26].

Obviamente, ambos enfoques del problema presentan ventajas y desventajas. El


emparejamiento BEC requiere de una cierta "estructuración" subyacente en los datos, que
posibilite la identificación de objetos o formas determinadas (por ejemplo segmentos,
círculos, polígonos, etc.). Además, en determinados casos, el proceso de extracción puede
llegar a ser bastante costoso desde el punto de vista computacional. El número de

20
combinaciones a explorar en la metodología BEC es considerablemente menor que en la
metodología icónica, si bien, en este caso, la complejidad es conocida de antemano (en
principio todos con todos). La ventaja más importante de la metodología icónica es la
mayor precisión en el emparejamiento, lógica, por otra parte, si se tiene en cuenta que
parte de la precisión se pierde en el proceso de extracción de características. En [47] se
presenta una interesante comparación experimental de dos algoritmos basados en ambas
metodologías.

5. Conclusiones

El conocimiento de la posición y orientación es sin duda uno de los aspectos


importantes en la navegación autónoma de un vehículo. Ello permite, entre otras, tareas
como planificar caminos, generar trayectorias, evitar obstáculos, monitorizar la ejecución
de movimientos, etc. En los últimos años se han propuesto una gran variedad de técnicas
encaminadas a dotar al robot móvil de un sistema que permita su auto-localización con
respecto a un sistema de referencia absoluto. Estos sistemas, a su vez, pueden estar
basados en una gran variedad de sensores. En este artículo se ha realizado un recorrido
por las principales técnicas de estimación de la posición a través de una clasificación de
éstas en distintos niveles. En un primer nivel se distinguen dos grupos: estimadores
explícitos y estimadores basados en la percepción del entorno.

Los estimadores explícitos proporcionan la posición y orientación del robot a


partir de medidas más o menos directas del sensor. Dentro de estos cabe considerar tres
grupos distintos. Un primer grupo son los estimadores basados en medidas internas al
robot, suministradas bien por un sistema odométrico o bien por acelerómetros y
giróscopos (sistema de navegación inercial). Un segundo grupo lo constituyen los
denominados "sistemas de navegación mediante balizas o beacons". Y el tercero, quizás
menos popular que los anteriores, incluye los sistemas de localización mediante
estaciones de transmisión.

En cuanto a los estimadores basados en la percepción del entorno, estos utilizan


sensores que suministran información sobre éste que permite determinar la localización
del vehículo mediante comparación de ésta con otros datos o modelo conocidos. Aquí se
incluyen tanto los sistemas de estimación basados en el reconocimiento de marcas
naturales del entorno ("landmark-based") como los que se basan en un mapa o modelo
conocido del entorno ("model-based"), y que pueden ser suministrados de antemano o
bien construidos por el propio sensor. En este sentido, se ha prestado especial atención a
los principales sensores utilizados para dotar a un robot móvil de percepción, desde los
más tradicionales y conocidos como las cámaras de vídeo, hasta los escáneres láser. Por
último, también se han planteado las dos estrategias posibles para el emparejamiento de
los datos suministrados por el sistema sensorial con la información previamente obtenida
o conocida del entorno, y que a la postre, conduce a la estimación de la posición.

21
Referencias
[1] M. Asada. "Building a 3-D World Model for Mobile Robot from Sensory Data" . IEEE Trans. on
Systems, Man and Cybernetics, vol. 37, no. 6, 1990.

[2] S. Atiya and G.D. Hager. “Real-Time Vision-Based Robot Localization”. IEEE Transactions on
Robotics and Automation. Vol. 9, no. 6. Dec. 1993.

[3] N. Ayache. “Artificial Vision for Mobile Robots: Stereo Vision and Multisensory Perception”. The MIT
Press, 1991.

[4] P. Besl. “Surfaces in Range Image Understanding”. Springer Verlag, 1986.

[5] P. Besl.”Range Imaging Sensors”. Technical Report GMR-6090, General Motors Research Lab,
Warren, MI, USA, 1988.

[6] R. Brooks. "Aspect of Mobile Robots Visual Map Making". Second International Robotics Reseach
Symposium. MIT Press, 1985.

[7] Z. L. Cao, J.J. Roning and E. L. Hall. “Omnidirectional Vision Navigation Integrating Beacon
Recognition with Positioning”. SPIE Conference on Intelligent Robots and Computer Vision, vol. 727,
1986.

[8] M.P. Case. “Single Landmark Navigation by Mobile Robots”. SPIE Conference on Intelligent Robots
and Computer Vision, vol. 727, 1986.

[9] I.J. Cox. "Blanche: An Autonomous Robot Vehicle for Structured Environment". IEEE International
Conference on Computer Vision. pp. 978-982, 1988.

[10] I.J. Cox.“Blanche-An Experiment in Guidance and Navigation of an Autonomous Robot Vehicle”.
IEEE Transactions on Robotics and Automation, Vol. 7, no. 2, 1991.

[11] J.L. Crowley. “Navigation for an Intelligent Mobile Robot”. IEEE Journal of Robotics and
Automation, vol. RA-1, no. 1, 1985.

[12] K. Dowling. "NAVLAB: An Autonomous Navigation Testbed". En “Vision and Navigation: The
CMU Navlab”. Kluwer Academic Publishers., 1990.

[13] M. Drumheller. “Mobile Robot Localization using Sonar”. IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. PAMI-9, no. 2, 1987.

[14] G. Drunk. "Sensors for Mobile Robots". in Sensors and Sensory Systems for Advanced Robots. Edited
by P. Dario. Springer Verlag, 1988.

[15] H.F. Durrant-Whyte. “Integration, Coordination and Control of Multisensor Robot Systems”. Kluwer
Academic Publishers., 1988.

[16] A. Elfes. “Sonar-Based Real-World Mapping and Navigation”. IEEE Journal of Robotics and
Automation, vol. RA-3, no. 3, 1987.

[17] O. D. Faugeras, N. Ayache, B. Farvejon. "Building Visual Maps by Combining Noisy Stereo
Measurements". IEEE Inter. Conference on Robotics and Automation., 1986.

[18] O. D. Faugeras. “Three-dimensional Computer Vision. A Geometric Viewpoint”. The MIT Press.
1994.

[19] B. Forssell. "Radionavigation Systems" Prentice Hall International., 1991.

22
[20] A. Gelb. “Applied Optimal Estimation”. MIT Press., 1974.

[21] I.A. Getting. "The Global Positioning System"". IEEE Spectrum. December, 1993.

[22] J. Gonzalez. "Estimación de la Posición y Construcción de Mapas para un Robot Móvil equipado con
un Escáner Láser Radial".Tesis Doctoral. Universidad de Málaga, 1993.

[23] J. Gonzalez. “Recovering the Motion Parameters for a 2D Range Image Sequence”. 13th Int.
Conference on Pattern Recognition. Vienna, Austria. 1996.

[24] J. Gonzalez, A. Stentz, A. Ollero. "A Mobile Robot Iconic Position Estimator using a Radial Laser
Scanner". Journal of Intelligent&Robotic Systems .13:161-179. Kluwer Academic Press, 1995.

[25] G.B. Green.et al. “The GPS 21 Primary Satellite Constellation”. Navigation, vol. 36, no. 1. USA,
1989.

[26] W. E. L. Grimson. “Object Recognition by Computer” The MIT Press, 1990.

[27] M. Hebert, T. Kanade, I. Kweon. “3-D Vision Techniques for Autonomous Vehicles”. Technical
Report CMU-RI-TR-88-12, Carnegie Mellon University. Pittsburgh, USA, 1988.

[28] J. Hecht. “Understanding Lasers”, IEEE Press., 1991.

[29] R.E. Kalman. “A New Approach to Linear Filtering and Prediction Problems”. Transactions ASME,
Journal Basic Engineering 82 D, pp. 35-45, 1960.

[30] E. Krotkov. “Mobile Robot Localisation using a Single Image”. IEEE Robotics and Automation
Conference, 1989.

[31] I. Kweon, R. Hoffman, E. Krotkov. “Experimental Characterisation of the Perceptron Laser


Rangefinder”. Technical Report CMU-RI-TR-91-1, Carnegie Mellon University. Pittsburgh, USA, 1991.

[32] R.B. Langley. "Why is GPS Signal So Complex?". GPS World, 1990.

[33] X. Lebegue and J.K. Aggarwal. “Significant Line Segments for an Indoor Mobile Robot”. IEEE
Transactions on Robotics and Automation. Vol. 9, no. 6. Dec. 1993.

[34] Litton. "Fundamentals of Strapdown Inertial Navigation" Trainning Manual. Litton Aero Products.
USA, 1988.

[35] F. Lu. “Shape Registration using Optimization for Mobile Robot Navigation”. PhD. Thesis. University
of Toronto. 1995.

[36] B.D.Lucas. “Generalized Image Matching by the Method of Differences”. PhD. Thesis, Computer
Science Department, Carnegie Mellon University. USA, 1984.

[37] L. Matthies, S. Shafer (1987). “Error Modeling in Stereo Navigation”. IEEE Int. Journal of Robotics
Research, vol.3,no.3, 1987.

[38] L. Matthies, T. Kanada, R. Szeliski. “Kalman Filter-based Algorithms for Estimating Depth from
Image Sequence”.Int. Journal of Computer Vision, 3, 202-236 1989.

[39] C.D. McGuillem, T. S. Rappaport. “Infra-red Location System for Navigation of Autonomous
Vehicles”. IEEE Int. Conference on Robotics and Automation, 1988.

[40] H. P. Moravec. “Robot Rover Visual Navigation”. Ann Arbor, MI:UMI Research Press. USA, 1981.

23
[41] H.P. Moravec, A. Elfes. “High Resolution Maps from Wide-Angle Sonar”. IEEE International
Conference on Robotics Automation., 1985.

[42] A. Muñoz , J. Gonzalez. “Localizing Mobile Robots with a Single Camera in Structured
Environments”. ISIAC Symposia in the WAC’96 World Automation Congress. Montpellier, France,
1996.

[43] F. Nashashibi, M. Devi, P. Filletrau. “Indoor Scene Modelling using Multiple Range Images for
Autonomous Mobile Robots”. IEEE Int. Conference on Robotics and Automation, Nize, France. 1992.

[44] A. Ollero. “Control por Computador. Descripción Interna y Diseño Optimo”. Ed. Marcombo, 1991

[45] A. Ollero, A. Simon, F. Garcia y V. Torres. "Integrated Mechanical Design of a New Mobile Robot".
Proc. SICICA´92 IFAC Symposium. Ed. A. Ollero y E.F. Camacho. Pergamon Press, 1993.

[46] G. Shaffer, A. Stentz, W. Whittaker, K. Fitzpatrick (1990). “Position Estimator for Underground Mine
Equipment”. In Proc. 10th WVU International Mining Electrotechnology Conference, Morgantown, W.
VA. USA, 1990.

[47] G. Shaffer, J. Gonzalez and A. Stentz. "A Comparison of two Range-Based Pose Estimators for a
Mobile Robot.” SPIE Conference on Mobile Robots.. Boston, USA, Nov. 1992.

[48]A.W. Sleeswyk. "Vitruvius’ Odometer". Scientific American, 188-198, October, 1981

[49] R.C. Smith, P. Cheeseman. "On the Representation and Estimation of Spatial Uncertainty". The
International Journal of Robotics Research. Vol 5, No 4, 1986.

[50] T.A. Stansell. “The Transit Navigation Satellite System”. Magnavox., 1978.

[51] F. Stein, G. Medioni. “Map-Based Location using the Panoramic Horizon”. IEEE Transactions on
Robotics and Automation. Vol. 11, no. 6. Dec. 1995.

[52] K. Sugihara. "Location of a Robot using Sparse Visual Information". Fourth Inter. Symposium of
Robotics Research, pp. 749-757, Cambridge, MA, USA, 1987.

[53]K. Sutherland and W. Thompson. “Localizing in Unstructured Environments: Dealing with Errors”.
IEEE Transactions on Robotics and Automation. Vol. 10, no. 6. Dec. 1994.

[54]R.S. Szeliski. “Estimating Motion from Sparse Range Data without Correspondence”. In Second IEEE
Inter. Conference on Computer Vision. Tarpon Spring, FL, USA, 1988.

[55] R. Talluri, J.K. Aggarwal. "Position Estimation for a Mobile Robot in an Unstructured Environment"
IEEE Transactions on Robotics and Automation. Vol. 8, no. 5. Oct. 1992.

[56]R. Talluri, J.K. Aggarwal. "Mobile Robot Self-Location using a Model-Image Feature Based" IEEE
Transactions on Robotics and Automation. Vol. 12, no. 1. Feb. 1996.

[57] J.D. Tardos. “Integracion Multisensorial para Reconocimiento y Localización de Objetos en


Robotica”. Tesis Doctoral. Universidad de Zaragoza, 1990.

[58] V. Torres, J.A. Garcia-Fortes, A. Ollero, J. Gonzalez, A. Reina. "Descripción del Sistema Sensorial
del VAM-1".3º Congreso Nacional de la Asociación Española de Robótica. Zaragoza, 1993.

[59] T. Tsumura, N. Fujiwara, M. Hashimoto. "An Experimental System for SelfContained Position and
Heading Measurements of Ground Vehicles". International Conference on Advanced Robotics, Tokyo,
Japan, 1983.

24
[60] C.M. Wang. “Location Estimation and Uncertainty Analysis for Mobile Robots”, IEEE Int. Conf. on
Robotics and Automation, pp. 1230-1235, 1988.

[61] Y. Watanabe, S. Yuta. “Position Estimation of Mobile Robos with Internal and External Sensors using
Uncertainty Evolution Technique”. IEEE Int. Conf. on Robotics and Automation, pp. 2011-2016, 1990

25

View publication stats

Вам также может понравиться