Академический Документы
Профессиональный Документы
Культура Документы
net/publication/267222718
Article
CITATIONS READS
7 1,942
2 authors:
Some of the authors of this publication are also working on these related projects:
Contributions to tabular Reinforcement Learning for multiple Robotics Tasks View project
All content following this page was uploaded by Javier González-Jiménez on 17 January 2015.
Resumen
Abstract
This paper reviews the methods for position estimation of mobile robots and
autonomous vehicles. The paper introduces the position estimation problem and classifies
the existing methods for solving it into explicit estimation methods and methods based on
the environment perception. The explicit methods do not require acquisition and
interpretation of robot environment information. These include dead reckoning
techniques, inertial navigation systems, absolute position estimation based on
transmission stations, particularly the GPS, and triangulation techniques by using
beacons. Position estimation methods based on the environment perception are also
classified depending on the nature of the sensor: active (laser, sonars) and passive (video
cameras). Furthermore, two different techniques are considered for matching environment
data: feature based methods and iconic methods.
1
1. Introducción
Por todo ello, un robot móvil rara vez va equipado con un único sensor para
realizar todas estas tareas, sino que la práctica más habitual consiste en combinar dentro
2
del sistema sensorial varios sensores que en mayor o menor medida se complementan
[45]. De este modo es posible encontrar robots donde la estimación de la posición1 y la
actualización del mapa recaen sobre cámaras de vídeo ó escáneres láser, mientras que la
detección de obstáculos se realiza mediante sónares [58]. En este sentido, es importante
destacar la estrecha relación que existe entre el problema de la estimación de la posición y
el de la construcción del mapa del entorno, siendo necesario la localización precisa del
robot para poder llevar a cabo la construcción del mapa, y viceversa.
Para que un robot móvil pueda satisfactoriamente afrontar tareas como generar
trayectorias, evitar obstáculos, monitorizar la ejecución, etc. se requiere que este sea
capaz de determinar su localización (posición y orientación) con respecto a un sistema de
referencia absoluto. De forma general, determinar la localización de un robot móvil
equivale a encontrar las componentes de translación (tx, ty, tz) y de rotación (θx, θy, θz)
del sistema de coordenadas solidario al robot (y por tanto móvil) con respecto a un
sistema absoluto. En particular, en este trabajo se considera el caso bidimensional (con
mucho el más común en las aplicaciones actuales de los robots móviles), donde el robot
se mueve con tres posibles grados de libertad. Así, el problema se reduce a encontrar la
terna (tx, ty, θ) asociada al sistema móvil del vehículo, donde (tx, ty) representa su
posición y θ representa su orientación (ver Figura 1).
Y y
x
θ
ty
tx X
1. A lo largo de este artículo se empleará la expresión “estimación de la posición” para referirse tanto a la
obtención de la posición como de la orientación del vehículo.
3
ello. Estas técnicas varían significativamente en función del tipo de entorno en el cual el
robot móvil ha de navegar, del conocimiento que se tenga de dicho entorno, de la tarea a
realizar, y del tipo de sensor con el que el robot va equipado.
ESTIMACION DE LA POSICION
4
infieren la localización del vehículo mediante comparación de ésta con otros datos o
modelo conocido (mapa, marcas naturales, objetos, etc.).
2. El Problema de la Estimación
J = y − y$ = ( y − y$ ) ( y − y$ ) = ∑ ( y i − y$ i )
n
T 2
(1)
i=1
T
siendo y = (y1, y2, . . .,yn) un conjunto de N medidas, e y$ = (y$ 1 , y$ 1 , . . ., y$ 1 ) T .valores
calculados a partir de mediante el modelo adoptado para el sistema. Por ejemplo, para un
el sistema lineal estático se tiene:
$
y$ = MΘ (2)
5
J = ( y − y$ ) W( y − y$ ) = ∑ w i ( y i − y$ i ) = ∑ w i e i 2
n n
T 2
(3)
i=1 i=1
p( y , Θ )
L ( y , Θ) = p( y Θ) = (4)
p(Θ )
2. Esta suposición significa que no existe correlación en los ruidos asociados a las distintas medidas.
6
filtro de Kalman es también una herramienta fundamental cuando en el proceso de
estimación intervienen medidas redundantes proporcionadas por diferentes sensores
[15],[17].
7
número de vueltas dadas por sus ruedas. En la actualidad, para llevar la cuenta del
número de vueltas dadas (y fracciones de éstas) se utilizan codificadores ópticos de
elevada precisión montados sobre los ejes. Obviamente, para la estimación se requiere el
registro odométrico de al menos un par de ruedas del vehículo.
θ
d P
R
Figura 3. Dibujo esquemático de un vehículo triciclo.
1
∆s = ( ∆sR + ∆sL ) (5)
2
donde sR y sL son las distancias recorridas por las ruedas derecha e izquierda,
respectivamente. La variación en la orientación del vehículo ∆θ, viene dada por:
1
∆θ = ( ∆s R − ∆s L ) (6)
d
1
s(t) = (s (t) + sL (t)) (7)
2 R
8
1
θ( t ) = θ(0) + (s ( t ) − sL ( t )) (8)
d R
donde s(t) es la distancia recorrida por el punto P y θ(t) es la orientación del vehículo,
ambas para un tiempo dado t.
t
1
x( t ) = x(0) + ∫ (&sR ( t ) + &sL ( t )) cos(θ( t ))dt
0
2
t
1
y( t ) = y(0) + ∫ (&sR ( t ) + &sL ( t )) sen(θ( t ))dt
0
2
9
Para medir los ángulos de orientación se emplean giróscopos que pueden ser
mecánicos (masa giratoria) u ópticos (de anillo láser ó de fibra óptica) [34]. Es posible
también medir el ángulo de orientación empleado brújulas.
10
La configuración de estos sistemas está basada en un receptor a bordo del
vehículo y un conjunto de estaciones transmisoras de ondas de radio3, si bien cabe
considerar dos diferentes grupos: sistemas de posicionamiento mediante estaciones fijas y
sistemas de posicionamiento mediante estaciones móviles.
Los sistemas de estaciones fijas se han empleado desde hace varios decenios en la
navegación de barcos, submarinos y aviones. Utilizan fundamentalmente señales de radio
de media y alta frecuencia que son emitidas por estaciones terrestres fijas. En particular,
la invención en la década de los 50 del método conocido como navegación hiperbólica ha
tenido una gran repercusión sobre la navegación tanto aérea como marítima [19].
Los sistemas de estaciones móviles operando desde satélites son hoy día los de
mayor interés para robots móviles. Poco después de que el primer satélite artificial fuera
puesto en órbita en 1957, se inventó el primer sistema de posicionamiento basado en
satélites. Este sistema, conocido como TRANSIT, estaba basado en el cambio de
frecuencia experimentado por las señales de radio transmitidas por los satélites (el
conocido efecto Doppler) [50].
11
Figura 4. Los 24 satélites del GPS dan una vuelta a la Tierra cada 12horas a
una altura de 20200km. En cada una de las 6 órbitas circulan 4 satélites que
continuamente transmiten un código pseudo-aleatorio en dos frecuencias de la
banda de los 1000 MHz.
12
Transmision de
errores
BASE REMOTA
Posición conocida Posición desconocida
13
BALIZA 1
BALIZA 1 BALIZA 2
BALIZA 2 θ2 BALIZA 3
θ2 θ1
θ1
ROBOT ROBOT
(a) (b)
BALIZA 1
d1 BALIZA 1
θ2
d2
ROBOT
BALIZA 2 ROBOT
(c) (d)
14
especial omnidireccional que proporciona un ángulo de visión de 360 grados sin
necesidad de recurrir a elementos mecánicos. Las balizas utilizadas son un conjunto de
puntos luminosos distribuidos según un determinado patrón, de tal forma que estos son
fácilmente reconocibles por el sistema de visión.
4.1. Sensores
15
través de reflexiones en los objetos del entorno. Además de las características comunes a
otras aplicaciones como la resolución, precisión, alcance, etc., para aplicaciones de robot
móviles es necesario tener muy en cuenta otras características del sensor como la
inmunidad a las variaciones de las condiciones ambientales, la robustez ante vibraciones
y otros efectos del medio y del vehículo, el tamaño, consumo, desgaste y seguridad de
funcionamiento.
En relación con los sensores láser, si bien de elevado coste todavía, están
cobrando cada vez mayor significación en el campo de los robots móviles gracias a su
precisión y fiabilidad. Utilizando uno o dos espejos convenientemente sincronizados es
16
posible direccionar el rayo de luz láser, configurándose así un sensor de rastreo
bidimensional o tridimensional, respectivamente [5]. La luz láser utilizada opera en las
proximidades del infrarrojo, lo que hace que estos sensores sean prácticamente
insensibles a las condiciones de iluminación del entorno. Asimismo, la longitud de onda
de la señal (~800nm), la reducida divergencia del haz y las características propias de la
luz láser [28], permiten obtener un eco incluso para superficies con un bajo coeficiente de
reflectividad (del orden del 10%).
Las cámaras de vídeo son sin duda los sensores más utilizados en percepción
gracias a las numerosas ventajas que presentan: alta resolución, velocidad en la
adquisición de la información, bajo consumo, no necesitan emplear dispositivos
17
mecánicos y son relativamente baratas. Sin embargo, la fuerte dependencia de las
condiciones ambientales de iluminación, así como la excesiva complejidad
computacional requerida a la hora de obtener información tridimensional, hacen todavía
difícil su utilización en muchas de las aplicaciones de robots móviles (en especial en
escenarios exteriores). Esta complejidad computacional es en buena parte debida a la
dificultad en resolver el problema de la correspondencia entre características de distintas
imágenes de una misma escena o con un modelo o mapa conocido a priori.
Las técnicas empleadas para estimar la posición del vehículo son variadas, si bien
pueden establecerse dos categorías. El primer grupo comprende todas aquellas técnicas
basadas en la obtención de profundidad (distancia) a objetos del entorno, donde se
incluyen, fundamentalmente, la visión estéreo y el estimación de movimiento a partir del
flujo óptico. En ambos casos se suele recurrir a operadores que primero localizan en las
imágenes un número más o menos reducido de características que posteriormente son
emparejadas con la ayuda de un conjunto de restricciones (geométricas, físicas, del
entorno, etc.) [2], [3], [18], [37], [40].
18
4.2. Estrategias para el Emparejamiento de Datos: Técnicas basadas en la
Extracción de Características y Técnicas Icónicas
Por el contrario, el enfoque icónico trabaja directamente con los dos conjuntos de
datos, buscando en este caso el emparejamiento directo de sus elementos. Aunque menos
popular que el anterior, esta técnica ha sido empleada con éxito en aplicaciones diversas
como la estimación de profundidad ([36], [38]) o la correspondencia entre mapas ([16],
[23], [35], [54]). Una variante normalmente considerada como icónica es aquella que
empareja los datos directamente proporcionados por el sensor con un modelo o mapa
formado por características [10], [24].
1 2
Ck = (F ik, F jk)
1 2
obtenidos a partir de dos observaciones F e F de una escena (una de estas observaciones
puede ser simplemente un modelo conocido del entorno).
19
i
De acuerdo con el tipo de metodología empleada, F j puede ser la característica j
i
extraída de la observación F (BEC) ó directamente el elemento j del conjunto de datos
i
observados F (icónica). El objetivo es encontrar la transformación T* y el conjunto de
pares de correspondencia óptimos
1 2
Ck* = (F ik*, F jk*)
tal que
2 1
F jk* ≈ Τ*( F ik*)
20
combinaciones a explorar en la metodología BEC es considerablemente menor que en la
metodología icónica, si bien, en este caso, la complejidad es conocida de antemano (en
principio todos con todos). La ventaja más importante de la metodología icónica es la
mayor precisión en el emparejamiento, lógica, por otra parte, si se tiene en cuenta que
parte de la precisión se pierde en el proceso de extracción de características. En [47] se
presenta una interesante comparación experimental de dos algoritmos basados en ambas
metodologías.
5. Conclusiones
21
Referencias
[1] M. Asada. "Building a 3-D World Model for Mobile Robot from Sensory Data" . IEEE Trans. on
Systems, Man and Cybernetics, vol. 37, no. 6, 1990.
[2] S. Atiya and G.D. Hager. “Real-Time Vision-Based Robot Localization”. IEEE Transactions on
Robotics and Automation. Vol. 9, no. 6. Dec. 1993.
[3] N. Ayache. “Artificial Vision for Mobile Robots: Stereo Vision and Multisensory Perception”. The MIT
Press, 1991.
[5] P. Besl.”Range Imaging Sensors”. Technical Report GMR-6090, General Motors Research Lab,
Warren, MI, USA, 1988.
[6] R. Brooks. "Aspect of Mobile Robots Visual Map Making". Second International Robotics Reseach
Symposium. MIT Press, 1985.
[7] Z. L. Cao, J.J. Roning and E. L. Hall. “Omnidirectional Vision Navigation Integrating Beacon
Recognition with Positioning”. SPIE Conference on Intelligent Robots and Computer Vision, vol. 727,
1986.
[8] M.P. Case. “Single Landmark Navigation by Mobile Robots”. SPIE Conference on Intelligent Robots
and Computer Vision, vol. 727, 1986.
[9] I.J. Cox. "Blanche: An Autonomous Robot Vehicle for Structured Environment". IEEE International
Conference on Computer Vision. pp. 978-982, 1988.
[10] I.J. Cox.“Blanche-An Experiment in Guidance and Navigation of an Autonomous Robot Vehicle”.
IEEE Transactions on Robotics and Automation, Vol. 7, no. 2, 1991.
[11] J.L. Crowley. “Navigation for an Intelligent Mobile Robot”. IEEE Journal of Robotics and
Automation, vol. RA-1, no. 1, 1985.
[12] K. Dowling. "NAVLAB: An Autonomous Navigation Testbed". En “Vision and Navigation: The
CMU Navlab”. Kluwer Academic Publishers., 1990.
[13] M. Drumheller. “Mobile Robot Localization using Sonar”. IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. PAMI-9, no. 2, 1987.
[14] G. Drunk. "Sensors for Mobile Robots". in Sensors and Sensory Systems for Advanced Robots. Edited
by P. Dario. Springer Verlag, 1988.
[15] H.F. Durrant-Whyte. “Integration, Coordination and Control of Multisensor Robot Systems”. Kluwer
Academic Publishers., 1988.
[16] A. Elfes. “Sonar-Based Real-World Mapping and Navigation”. IEEE Journal of Robotics and
Automation, vol. RA-3, no. 3, 1987.
[17] O. D. Faugeras, N. Ayache, B. Farvejon. "Building Visual Maps by Combining Noisy Stereo
Measurements". IEEE Inter. Conference on Robotics and Automation., 1986.
[18] O. D. Faugeras. “Three-dimensional Computer Vision. A Geometric Viewpoint”. The MIT Press.
1994.
22
[20] A. Gelb. “Applied Optimal Estimation”. MIT Press., 1974.
[21] I.A. Getting. "The Global Positioning System"". IEEE Spectrum. December, 1993.
[22] J. Gonzalez. "Estimación de la Posición y Construcción de Mapas para un Robot Móvil equipado con
un Escáner Láser Radial".Tesis Doctoral. Universidad de Málaga, 1993.
[23] J. Gonzalez. “Recovering the Motion Parameters for a 2D Range Image Sequence”. 13th Int.
Conference on Pattern Recognition. Vienna, Austria. 1996.
[24] J. Gonzalez, A. Stentz, A. Ollero. "A Mobile Robot Iconic Position Estimator using a Radial Laser
Scanner". Journal of Intelligent&Robotic Systems .13:161-179. Kluwer Academic Press, 1995.
[25] G.B. Green.et al. “The GPS 21 Primary Satellite Constellation”. Navigation, vol. 36, no. 1. USA,
1989.
[27] M. Hebert, T. Kanade, I. Kweon. “3-D Vision Techniques for Autonomous Vehicles”. Technical
Report CMU-RI-TR-88-12, Carnegie Mellon University. Pittsburgh, USA, 1988.
[29] R.E. Kalman. “A New Approach to Linear Filtering and Prediction Problems”. Transactions ASME,
Journal Basic Engineering 82 D, pp. 35-45, 1960.
[30] E. Krotkov. “Mobile Robot Localisation using a Single Image”. IEEE Robotics and Automation
Conference, 1989.
[32] R.B. Langley. "Why is GPS Signal So Complex?". GPS World, 1990.
[33] X. Lebegue and J.K. Aggarwal. “Significant Line Segments for an Indoor Mobile Robot”. IEEE
Transactions on Robotics and Automation. Vol. 9, no. 6. Dec. 1993.
[34] Litton. "Fundamentals of Strapdown Inertial Navigation" Trainning Manual. Litton Aero Products.
USA, 1988.
[35] F. Lu. “Shape Registration using Optimization for Mobile Robot Navigation”. PhD. Thesis. University
of Toronto. 1995.
[36] B.D.Lucas. “Generalized Image Matching by the Method of Differences”. PhD. Thesis, Computer
Science Department, Carnegie Mellon University. USA, 1984.
[37] L. Matthies, S. Shafer (1987). “Error Modeling in Stereo Navigation”. IEEE Int. Journal of Robotics
Research, vol.3,no.3, 1987.
[38] L. Matthies, T. Kanada, R. Szeliski. “Kalman Filter-based Algorithms for Estimating Depth from
Image Sequence”.Int. Journal of Computer Vision, 3, 202-236 1989.
[39] C.D. McGuillem, T. S. Rappaport. “Infra-red Location System for Navigation of Autonomous
Vehicles”. IEEE Int. Conference on Robotics and Automation, 1988.
[40] H. P. Moravec. “Robot Rover Visual Navigation”. Ann Arbor, MI:UMI Research Press. USA, 1981.
23
[41] H.P. Moravec, A. Elfes. “High Resolution Maps from Wide-Angle Sonar”. IEEE International
Conference on Robotics Automation., 1985.
[42] A. Muñoz , J. Gonzalez. “Localizing Mobile Robots with a Single Camera in Structured
Environments”. ISIAC Symposia in the WAC’96 World Automation Congress. Montpellier, France,
1996.
[43] F. Nashashibi, M. Devi, P. Filletrau. “Indoor Scene Modelling using Multiple Range Images for
Autonomous Mobile Robots”. IEEE Int. Conference on Robotics and Automation, Nize, France. 1992.
[44] A. Ollero. “Control por Computador. Descripción Interna y Diseño Optimo”. Ed. Marcombo, 1991
[45] A. Ollero, A. Simon, F. Garcia y V. Torres. "Integrated Mechanical Design of a New Mobile Robot".
Proc. SICICA´92 IFAC Symposium. Ed. A. Ollero y E.F. Camacho. Pergamon Press, 1993.
[46] G. Shaffer, A. Stentz, W. Whittaker, K. Fitzpatrick (1990). “Position Estimator for Underground Mine
Equipment”. In Proc. 10th WVU International Mining Electrotechnology Conference, Morgantown, W.
VA. USA, 1990.
[47] G. Shaffer, J. Gonzalez and A. Stentz. "A Comparison of two Range-Based Pose Estimators for a
Mobile Robot.” SPIE Conference on Mobile Robots.. Boston, USA, Nov. 1992.
[49] R.C. Smith, P. Cheeseman. "On the Representation and Estimation of Spatial Uncertainty". The
International Journal of Robotics Research. Vol 5, No 4, 1986.
[50] T.A. Stansell. “The Transit Navigation Satellite System”. Magnavox., 1978.
[51] F. Stein, G. Medioni. “Map-Based Location using the Panoramic Horizon”. IEEE Transactions on
Robotics and Automation. Vol. 11, no. 6. Dec. 1995.
[52] K. Sugihara. "Location of a Robot using Sparse Visual Information". Fourth Inter. Symposium of
Robotics Research, pp. 749-757, Cambridge, MA, USA, 1987.
[53]K. Sutherland and W. Thompson. “Localizing in Unstructured Environments: Dealing with Errors”.
IEEE Transactions on Robotics and Automation. Vol. 10, no. 6. Dec. 1994.
[54]R.S. Szeliski. “Estimating Motion from Sparse Range Data without Correspondence”. In Second IEEE
Inter. Conference on Computer Vision. Tarpon Spring, FL, USA, 1988.
[55] R. Talluri, J.K. Aggarwal. "Position Estimation for a Mobile Robot in an Unstructured Environment"
IEEE Transactions on Robotics and Automation. Vol. 8, no. 5. Oct. 1992.
[56]R. Talluri, J.K. Aggarwal. "Mobile Robot Self-Location using a Model-Image Feature Based" IEEE
Transactions on Robotics and Automation. Vol. 12, no. 1. Feb. 1996.
[58] V. Torres, J.A. Garcia-Fortes, A. Ollero, J. Gonzalez, A. Reina. "Descripción del Sistema Sensorial
del VAM-1".3º Congreso Nacional de la Asociación Española de Robótica. Zaragoza, 1993.
[59] T. Tsumura, N. Fujiwara, M. Hashimoto. "An Experimental System for SelfContained Position and
Heading Measurements of Ground Vehicles". International Conference on Advanced Robotics, Tokyo,
Japan, 1983.
24
[60] C.M. Wang. “Location Estimation and Uncertainty Analysis for Mobile Robots”, IEEE Int. Conf. on
Robotics and Automation, pp. 1230-1235, 1988.
[61] Y. Watanabe, S. Yuta. “Position Estimation of Mobile Robos with Internal and External Sensors using
Uncertainty Evolution Technique”. IEEE Int. Conf. on Robotics and Automation, pp. 2011-2016, 1990
25