Академический Документы
Профессиональный Документы
Культура Документы
El algoritmo arrojo buenos resultados ante diferentes cmaras con diferentes parmetros
de distorsin. Una vez establecida una semilla generacional de parmetros cercanos a la
solucin ptima y, colocados adecuadamente los rangos de posibles soluciones para el
parmetro de distorsin, el algoritmo logra minimizar el error y hallar una Kd que
corrige la distorsin de la imagen.
Se hicieron nuevamente 3 pruebas con las tres cmaras con que se hicieron los anlisis
de la seccin anterior. En este documento se consignan los resultados de las pruebas
con la cmara 2, que tiene una distorsin significativa, porque es este caso en que se
observan mejores resultados con los Algoritmos Genticos.
En las cmaras con distorsin cercana a cero el algoritmo gentico no se comporto
mejor que una tcnica normal de gradiente descendente, si tenemos en cuenta que la
tcnica de gradiente descendente que aplicamos fue implementada con las herramientas
de Matlab y no hubo necesidad de sacar derivadas de las ecuaciones que involucran a
Kd. Podemos decir que ganamos en simplicidad computacional, lo cual viene a ser muy
til si se pretende llevar a cabo una implementacin en un software libre en que el
programador deba realizar por si mismo las operaciones matemticas para obtener
derivadas, gradientes, tensores, hessianas y dems, para programar adecuadamente su
algoritmo. Obviamente con un software de minimizacin de funciones como MINPACK
, los resultados comparativos tampoco son buenos, porque nuevamente, en ese
software las funciones ya estn hechas, el software es libre y ampliamente utilizado.
En las cmaras con una distorsin significativa, los resultados fueron muy buenos,
porque si juntamos la economa computacional con la precisin veremos que es una
tcnica til y barata. Es posible obtener mejores resultados en plataformas de
compilacin ms efectivas y de distribucin ms accesible a un usuario medio como C+
+ o Delphi, lo cual queda como proyeccin para futuros trabajos.
Ante el ruido es posible establecer que la tcnica no es tan robusta como se pretendera,
en el punto 3 de las ventajas del AG sobre otras tcnicas, esto se nota especialmente en
la cmara 2 para la prueba 1 y la prueba 3, porque en dichas pruebas se ha introducido
intencionalmente ruido en la toma de las fotografas, y el error no es ms pequeo que
para otras tcnicas o necesitan ms tiempo para minimizarlo.
A continuacin se presenta un cuadro comparativo entre los mtodos con que se
compar esta tcnica de algoritmos genticos. A diferencia de la primera parte de este
captulo, aqu se tomaron nuevas pruebas y con ms mtodos, pero no se consignan
todos los resultados de imgenes y parmetros por cuestiones de espacio.
En esa tabla se puede hacer un anlisis comparativo de las diferentes tcnicas. Se puede
observar que, aunque el mtodo es relativamente eficiente, apenas si mejora los
resultados de otros mtodos como Fougerais-Toscani, que es muy sencillo de
implementar. Debe destacarse que el mtodo es comparativamente mejor cuando se
tiene una cmara con distorsin y es necesario hallar un parmetro de distorsin
diferente de cero. All el mtodo con Algoritmos Genticos muestra que puede ser
mejor que algunos mtodos clsicos en cuanto al error de reconstruccin y en cuanto a
eficiencia computacional.
ERROR DE RECONSTRUCCIN
CAMARA 1
CMARA 2
CAMARA 3
Tcnica
utilizada
Prueb
a1
Prueba
2
Prueba
3
HallAyache
Fougera
isToscani
TsaiInicial
TsaiLevenbe
rg_Mar
quardt
Chaume
tte_Inici
al
Chaume
tteLev_Ma
q
ZhangPrimera
Etapa
ZhangSegunda
Etapa
ZhangOptimiz
acin
Algorit
mo
Gentic
o
Jong&
Qi
ampliad
o en
este
docum
ento.
0,3141
0,4447
0,3236
0,7977
0,7828
0,2289
0,4096
0,2135
0,7731
0,7442
0,9934
1,3654
2,3619
0,9302
1,2091
0,1962
0,3769
0,2019
0,4808
0,3865
0,3128
0,4584
0,3245
0,8183
0,7940
0,1962
0,3769
0,2019
0,4577
0,3865
0,2289
0,4096
0,2135
0,7731
0,7442
0,2115
0,4019
0,7519
0,7519
0,6981
0,2038
0,3731
0,4904
0,4904
0,3923
0,3128
0,4584
0,3245
0,62
0,4993
0,6690
Prueba
1
0,3291
Prueba
2
0,5905
Prueba
3
0,3524
//****RESULTADOS DE LA CALIBRACION*****//
//**********************//
PARAMETROS INTERNOS
Xc=176 Yc=144 Fx=786.2103 Fy=840.9178
PARAMETROS EXTERNOS: Matriz de Rotacion
-0.69123 0.72263 0.0031588
-0.036729 -0.030768 -0.99885
-0.7217 -0.69056 0.047809
PARAMETROS EXTERNOS: Vector de Traslacion
-22.511394
211.37847
1526.7348
K1= -4.2325e-007
K2= -1.6091e-011
4.9.2. Cmara 2
//****RESULTADOS DE LA CALIBRACION*****//
//**********************//
PARAMETROS INTERNOS
Xc=160 Yc=120 Fx=341.3006 Fy=330.0536
PARAMETROS EXTERNOS: Matriz de Rotacion
-0.69623 0.61296 0.37355
-0.27833 0.24918 -0.9276
-0.66165 -0.7498 -0.0028833
PARAMETROS EXTERNOS: Vector de Traslacion
-67.27344
192.4089
983.088
Error_promedio= 0.79
K1 =
K2
3.230815750550923e-006
= -3.178800660241755e-010
4.9.3. Cmara 3
0.83402489626556
-1.596525573023936e-007
4.700500382716288e-012
Desperada
Dfinal
0.67007
0.037852
0.74049
0
0.7427
0.031982
0.67001
0
0.67585
0.73704 0.00247 24.623
0.73602
0.67509
0.002855
0.99932
0.05242
0
0.050335 1526.3
0
Aespe
0
176
799.89
144
25.04
211 .85
1449
1
783.47
Afinal
0
176
846
144
Cmara 2
0.68811
0.2854
Desperada
0.66773
0.6236
0.37112
68.211
0.24249
0.92787
208.94
0.7443
0.012342
796.95
0.62506
0.68555
0.25816
0.26972
Dfinal
0.67622 0.7366
0
0
Aespe
0
0
259.03
0
0
0
160
120
1
160
120
68.8
0.92769 190.78
0.008391 935.96
290
0.37325
300
Afinal
Cmara 3.
0.52618
0.3063
Despe
0.83
0.051812
39.293
0.13641
0.92031
0.78092
0.47551
0.40503
7.302
1827.9
0.56
0.312
Dfinal
0.764
0.82
0.059
34.4
0.14718
0.550
0.938
0.332
7.463
1632.2
811.18
Aespe
0
700
Afinal
0
0
812.31
0
0
0
320
240
1
320
709.25
240
Error RNAs
Error Fougerais-Toscani
Cmara 1
0.1
0.3128
Cmara 2
0.7895
0.7940
Cmara 3
0.83881
0.3325
El error de reconstruccin se reduce a 0.7661, que parece no ser muy significativo pero
a este nivel si lo es. En la figura 6, se pueden visualizar estos resultados.
El mximo error presentado entre pxeles en la reconstruccin es de hasta 2 pxeles (con
excepcin de un pico espreo de 3 pxeles). Debe observarse que la foto 3 de la figura
6, corrige el error de distorsin en buena medida comparable a la correccin hecha a
ojo de la segunda foto. Las mayores diferencias entre estas dos, es la distorsin que an
se presenta en las partes exteriores al patrn de calibracin en la tercera fotografa. Las
razones para esto pueden estar en tres causas: la primera est relacionada con los puntos
externos al patrn de calibracin que la RNA no ha tenido en cuenta ni en el modelo
clsico, ni en el modelo con distorsin, aunque este problema se presenta tambin para
mtodos clsicos.
La segunda razn tiene que ver con la linealizacin que se hace del modelo de
distorsin no lineal, que aunque facilita el tratamiento matemtico, obviamente
introduce causas de error. Eso puede verse al comparar mtodos dismiles entre s. El
contraste proviene de los diferentes mtodos utilizados para corregir la fotografa
original y llegar a la correccin de la foto 2 de la figura 5.47 y a la correccin de la foto
3 de la misma figura. Para la foto 2 se utilizan las herramientas del MATLAB de
minimizacin de funciones con Levenberg-Marquardt, en que iterativamente se ponen a
variar los parmetros del modelo clsico junto al nuevo parmetro de distorsin, con el
objetivo de optimizar todo el conjunto de parmetros para minimizar la funcin de error.
En cambio para la foto 3, los parmetros del modelo clsico permanecen constantes
mientras se buscan los parmetros de distorsin, por lo que el conjunto total de
parmetros no es optimizado. Adems la funcin error es diferente.
Puede pensarse que la optimizacin global de los parmetros podra hacerse poniendo a
entrenar a las dos redes simultneamente en cada iteracin de aprendizaje simulando un
funcionamiento en paralelo. Ese experimento se realiz y los resultados no fueron
satisfactorios. La razn para esto es que no hay manera de asociar el error debido al
parmetro de distorsin en el modelo clsico, de tal manera que los cambios en V y W
(los pesos de interconectividad de las neuronas en la primera RNA), dependan
especficamente del mismo. Esto slo podra hacerse si consideramos el modelo con
distorsin, pero para hacerlo funcionar con una tcnica de gradiente descendente sera
necesario hallar la derivada de la funcin de error respectiva, lo que origina un aumento
grande en la dificultad computacional del sistema.
Adems, es prcticamente imposible asociar las ecuaciones (36) y (37) directamente con
una red neuronal. Para lograr un solo parmetro ms (Kd1) la dificultad del problema
aumenta de forma dramtica y la disminucin de la eficiencia computacional lo hace
totalmente imprctico.