Вы находитесь на странице: 1из 12

27 Congreso Nacional de Estadstica e Investigacin Operativa

Lleida, 8-11 de abril de 2003

DISEO DE UNA RED NEURONAL AUTOASOCIATIVA


PARA RESOLVER EL PROBLEMA DE VIAJANTE DE
COMERCIO (TRAVELING SALESMAN PROBLEM, TSP)
M Luisa Prez Delgado 1
Quintn Martn Martn 2

1Departamento de Informtica y Automtica


Universidad de Salamanca
e-mail: qmm@usal.es
2 Departamento de Estadstica
Universidad de Salamanca
mlperez@usal.es

RESUMEN
Los mapas de Kohonen o SOFM (Self-Organizing Feature Maps) fueron desarrollados en la
dcada de los 80 por el fsico finlands Teuvo Kohonen. En este trabajo se parte del algoritmo
bsico de Kohonen para intentar resolver el TSP. Se estudiarn diferentes mejoras sobre la red de
Kohonen, con el objetivo de obtener una red que de buenos resultados para problemas TSP
Eucldeos.
La Red Neuronal Artificial diseada se simular mediante software en un ordenador tipo PC.

Palabras y frases clave: Los mapas de Kohonen, TSP.


Clasificacin AMS: 90C3.

1. Mapa de Kohonen bsico, problemas y mejoras


Inicialmente se considera una Red con una capa de entrada formada por dos neuronas,
una para cada coordenada de las ciudades, y una capa de salida formada por un vector
con tantas neuronas como ciudades incluya el problema, con lo que se establece una
vecindad lineal en dicha capa. El vector se cierra, de forma que la neurona de la ltima
posicin se considera vecina de la neurona de la primera posicin. La nica misin de la
capa de entrada es pasar las coordenadas de las ciudades a las neuronas de la siguiente
capa, no realizando ningn tipo de procesamiento.
El algoritmo para entrenar la Red es el siguiente:

1- Poner el contador de iteraciones a 0.


2- Poner el contador de patrones presentados a 0.
3- Seleccionar una ciudad del conjunto de ciudades y presentarla a la Red.
4- Determinar la neurona ganadora para esa ciudad.
5- Actualizar los pesos de la ganadora y su vecindad.
6- Incrementar en 1 el contador de patrones presentados.
7- Si el nmero de patrones presentados es igual al nmero de ciudades,
incrementar en 1 el contador de iteraciones. Si no, ir al paso 3.
8- Determinar la neurona ganadora para cada ciudad. Si toda ciudad tiene
una neurona a distancia menor que el error prefijado, acabar.
9- Actualizar la tasa de aprendizaje y el radio de vecindad.
10- Si el nmero de iteraciones no es el mximo permitido, ir al paso 2.
Algoritmo bsico de Kohonen
Antes de aplicar el algoritmo de entrenamiento, se iniciarn los pesos con valores
aleatorios entre 0 y 1, el nmero mximo de iteraciones del algoritmo, el error mximo
permitido para el ajuste entre las ciudades y sus neuronas asociadas, la tasa de
aprendizaje y el radio de vecindad.
Las ciudades se pueden ir tomando por rotacin dentro del conjunto de ciudades o se
pueden elegir de forma aleatoria.
La neurona ganadora para una ciudad ser la que est a menor distancia, es decir, la que
tenga un vector de pesos ms prximo a las coordenadas de la ciudad. La medida de
distancia considerada es la Eucldea.

[w
m

d(wij ,x) = (

k =1

ij k

xk

(1)

Para determinar la vecindad de la ganadora se pueden utilizan las funciones de vecindad


rectangular, triangular, pipa, gaussiana y exponencial cncava, considerando siempre
que la capa de salida es unidimensional.

Funcin rectangular:
0 si | i g |> R( t )
h(|i-g|, t) =
1 si | i g | R ( t )

(2)

Funcin pipa:
| i g | R(t )
R(t ) <| i g | R(t ) + x

h(|i-g|, t) = a
0

(3)

en otro caso

Funcin gaussiana:
h(|i-g|, t) = exp (-

| i g |2
)
2R ( t ) 2

(4)

Funcin sombrero mejicano:


| i g |
sen

R ( t )

h(|i-g|, t) =
|i g |
R (t)

(5)

Funcin triangular:
0
si | i g |> R( t )

R (t) | i g |
h(|i-g|, t) =
si | i g | R ( t )

R (t )

(6)

Funcin exponencial cncava:


h(|i-g|, t) = exp -

|ig|
R (t)

(7)

Se logra una convergencia ms rpida con funciones de vecindad convexas que


cncavas, a la vez que se garantiza que no aparezcan estados metaestables [Erwin et al,
92a].
La expresin aplicada para actualizar los pesos es la indicada por
wi(t+1) = wi(t)+ (t) h(|i-g|, t) (xk -wij k)

(8)

La tasa de aprendizaje, (t), se actualiza de acuerdo con las expresin:

(t) = 0 + ( f - 0 )

(9)

0 : tasa de aprendizaje inicial (< 1)


f : tasa de aprendizaje final (0.01)
t: mximo nmero de iteraciones hasta llegar a f
El radio de vecindad, R(t), se actualiza de acuerdo con las expresin:
R(t) = R0 + (Rf - R0 )

(10)

tR

2. Red autoasociativa diseada


En este apartado se describe con detalle la Red diseada en base a los resultados de
todas las caractersticas analizadas en el apartado anterior.
La solucin propuesta utiliza un vector de neuronas de tamao mayor o igual que el
nmero de ciudades del problema. Cuando una neurona gane para varias ciudades, se
aadir una nueva neurona a su lado. Para evitar que el nmero de neuronas crezca sin
lmite, se eliminarn las neuronas no ganadoras.
Como en el algoritmo bsico analizado, se considerarn una tasa de aprendizaje y un
radio de vecindad decrecientes con el tiempo.
Inicialmente se pueden insertar/eliminar numerosas neuronas en cada bucle del
algoritmo, pero se observa que a medida que avanzan las iteraciones cada vez es menor
el nmero de operaciones de insercin/eliminacin.
Si al aproximarnos al nmero mximo de iteraciones permitidas para el algoritmo, se
observa que an oscila demasiado el nmero de neuronas del mapa, debera repetirse el
proceso con un nmero mayor de iteraciones. El objetivo es proporcionar suficientes
iteraciones, de modo que al iniciarse el ajuste fino del mapa, la mayor parte, si no son
todas las neuronas, sean ya ganadoras para una y slo una ciudad.
Se presentar iterativamente el conjunto de ciudades, de forma que los pesos de las
neuronas se aproximen a las coordenadas de las ciudades. Al finalizar el proceso, el
nmero de neuronas debe coincidir con el de ciudades (habr una neurona asociada a
cada ciudad). Para determinar el camino a seguir, se ir de la ciudad asociada a la
neurona i a la asociada a la i+1, para i=1, 2,N, recorriendo todo el vector de neuronas.
Para cerrar el camino, el ltimo tramo vendr dado por la ruta que une la ciudad
asociada a la neurona N con la asociada a la neurona 1. La distancia del camino vendr
dada por la suma de las distancias entre los sucesivos pares de ciudades del camino.

2.1 Arquitectura de la red


El problema considerado se define como un conjunto de pares de valores (x, y), que
representan las coordenadas de las ciudades.
Se utiliza un Mapa Autoorganizativo formado por las dos capas ya descritas: la capa de
entrada y la capa de competicin.
La capa de entrada est formada por dos neuronas, cada una de las cuales recibe una
de las coordenadas de la ciudad presentada como entrada, (x, y). La salida de esta capa
ser la entrada de la capa de competicin. Su nica misin es la de distribuir las
entradas a todas las neuronas de la siguiente capa.
La capa de entrada ser igual para todos los problemas.
La capa de competicin inicialmente puede tener un nmero variable de neuronas. Se
puede partir de un nmero de neuronas igual al de ciudades del problema. Como para
encontrar una solucin se necesitan como mnimo tantas neuronas como ciudades, no se
considera la posibilidad de partir de un nmero de neuronas menor que el de ciudades.
Cada una de estas neuronas recibir dos entradas, que corresponden a las salidas de la
capa anterior y son, por tanto, las coordenadas de la ciudad presentada como entrada a
la Red. Cada neurona tendr una salida que viene dada por la expresin [38] (suma
ponderada de los pesos de la neurona por las entradas). Durante el entrenamiento se
podrn aadir o eliminar neuronas de esta capa.
SALIDA DE LA RED

CAPA DE
COMPETICIN

CAPA DE
ENTRADA

ENTRADA A LA RED

Figura 1. Red

3. Mtodo de seleccin de ciudades


Se pueden utilizar dos mtodos diferentes para seleccionar la ciudad que se tomar
como entrada:
Rotacin: en cada iteracin de entrenamiento se empieza tomando la primera
ciudad de la lista de ciudades y se van tomando en orden, hasta llegar a la ltima de
la lista.
Aleatorio: se selecciona aleatoriamente una de las ciudades de la lista. Cuando se ha
presentado un nmero de ciudades igual a N, concluye la iteracin. Hay que tener en
cuenta que utilizando ste mtodo no se garantiza que se presenten todas las
ciudades en cada una de las iteraciones del algoritmo. Sin embargo, est
comprobado que la seleccin aleatoria genera buenos resultados.

4. Mtrica de distancia
Se pueden aplicar varias mtricas para determinar la neurona ganadora para una ciudad.
Se calcular la distancia entre las coordenadas de la ciudad y los pesos de todas las
neuronas, tomando como ganadora la que de un valor menor.
La medida de distancia considerada en este trabajo es la Eucldea, indicada en la
expresin [42].
La distancia entre la ciudad ck =(xk , yk ) y la neurona j, cuyo vector de pesos es wj=(wj 1,
wj 2), ser:
d(ck , wj ) =

( x k w j1 ) 2 + ( y k w j 2 ) 2

(11)

5. Adicin y eliminacin de neuronas


Como ya se coment, uno de los inconvenientes del algoritmo bsico de Kohonen es
que existe la posibilidad de que haya neuronas que no ganen para ninguna ciudad,
mientras que otras ganen para varias. Para evitar este problema, habra que llevar las
neuronas no ganadoras junto a las ganadoras mltiples.

Una de las posibilidades estudiadas consiste en aadir una nueva neurona


al mapa siempre que se produzca una victoria mltiple de alguna neurona (es
decir, duplicar la neurona siempre que se presente una ciudad y gane una
neurona que ya ha ganado para una ciudad diferente).

El algoritmo utilizado para insertar y eliminar neuronas es el siguiente:


1- Se inicia el contador de neuronas a 1 (k=1)
2- Si el contador de victorias de la neurona nk es mayor que 1,
Si el contador de victorias de nk-1 es mayor que el de nk+1 , insertar una
neurona (n*) entre nk y nk-1 , cuyos pesos sern:
wn* j = (0,04 wk-1 j) + (0,95 wk j) + (0,01 j)

para j=1, 2

si no, insertarla entre nk y nk+1 , siendo sus pesos:


wn* j = (0,04 wk+1 j) + (0,95 wk j) + (0,01 j)

para j=1, 2

donde j es un valor aleatorio entre 0 y 1.


El contador de ltima victoria de n* se hace igual al nmero de la iteracin
actual del algoritmo de entrenamiento.
Los pesos de nk se hacen iguales al 99% de sus pesos actuales.
3- Si el contador de victorias de la neurona nk es 0, no result ganadora para
ninguna ciudad al presentar todo el conjunto de ciudades y su ltima victoria
no tuvo lugar en las 3 ltimas iteraciones, eliminarla.
4- Se incrementa el contador (k=k+1)
5- Si k es mayor que el nmero de neuronas, acabar. Si no, volver al paso 2.
Veamos un problema, perteneciente a la librera TSPLIB, que incluye 42 ciudades.
X
170
166
133
140
142
126
125
119
117
99
73

Y
85
88
73
70
55
53
60
68
74
83
79

X
72
37
6
3
21
33
4
3
27
52
57

Y
91
94
106
97
82
67
66
42
33
41
59

X
58
88
99
95
89
83
85
104
112
112
113

Y
66
65
67
55
55
38
25
35
37
24
13

X
125
135
147
148
155
157
158
172
174

Y
30
32
18
36
45
54
61
82
87

105
90
75
60
45
30
15
0
0

25

50

75

100

125

150

175

Figura2. Ciudades
Los resultados obtenidos se recogen en la tablas siguientes:

Triangular

Rectangular

Vecindad Tiempo Distancia


0:00:17
0:00:56
0:02:18
0:00:28
0:01:35
0:00:17
0:01:08
0:00:14
0:01:16
0:00:17
0:00:44
0:00:36
0:00:37
0:00:19
0:00:19
0:00:16
0:00:16
0:00:28
0:00:17
0:00:17

725,724566
711,791350
723,993108
778,300306
758,759690
728,965415
732,508706
753,771108
717,487995
727,745685
733,612144
721,439205
735,343815
746,464508
748,870024
721,439205
732,875910
723,993108
749,744102
708,241527

Radio Error
Inicial Min
22 0,000011
22 0,000000
22 0,000000
22 0,000000
22 0,000000
11 0,000053
11 0,000000
11 0,000017
11 0,000000
11 0,000007
22 0,000000
22 0,000000
22 0,000000
22 0,000030
22 0,000032
11 0,000057
11 0,000019
11 0,000000
11 0,000034
11 0,000004

Error
Max
0,000901
0,000992
0,000959
0,000931
0,000919
0,000937
0,000914
0,000933
0,000948
0,000943
0,000964
0,000903
0,000812
0,000995
0,000928
0,000996
0,000917
0,000860
0,000935
0,000978

Error
P
0,000236
0,000038
0,000040
0,000042
0,000036
0,000294
0,000038
0,000224
0,000029
0,000142
0,000034
0,000029
0,000034
0,000393
0,000333
0,000375
0,000238
0,000037
0,000294
0,000303

Error
T
0,119047
0,166667
0,166667
0,333333
0,285714
0,166667
0,142857
0,238095
0,166666
0,119048
0,166667
0,190476
0,214286
0,214286
0,238095
0,190476
0,166667
0,166667
0,142857
0,166667

Producto
0,210282
0,233147
0,325584
0,190748
0,292503
0,136424
0,225206
0,211373
0,323246
0,248285
0,197098
0,325436
0,261778
0,191102
0,346713
0,317495
0,287789
0,188322
0,282076
0,188241

Pipa
Exponencial cncava

0:01:24
0:00:18
0:00:17
0:00:18
0:00:19
0:00:18
0:00:18
0:00:18
0:00:17
0:00:18
0:01:07
0:01:53
0:01:45
0:00:46
0:01:16
0:00:31
0:00:23
0:00:26
0:00:25
0:00:31

706,038348
729,781283
709,916598
757,377352
761,839565
763,850864
730,495720
753,187506
739,657685
741,622646
792,599967
800,440260
783,274201
730,559156
765,521967
732,250510
779,086614
750,856612
733,612144
738,365577

22
22
22
22
22
11
11
11
11
11
22
22
22
22
22
11
11
11
11
11

0,000000
0,000056
0,000040
0,000031
0,000031
0,000054
0,000039
0,000032
0,000020
0,000014
0,000000
0,000000
0,000000
0,000000
0,000000
0,000000
0,000003
0,000000
0,000000
0,000000

Gaussiana

Radio
Error
Vecindad Tiempo Distancia Inicia
Min
l
0:00:40 723,993108
22 0,000000
0:00:29 731,516740
22 0,000000
0:00:26 787,378448
22 0,000002
0:00:36 747,362011
22 0,000000
0:01:15 727,115865
22 0,000000
0:00:20 730,780506
11 0,000039
0:00:34 748,181260
11 0,000000
0:01:08 758,113587
11 0,000000
0:00:21 713,818159
11 0,000012
0:00:45 758,113587
11 0,000000
MNIMO 0:00:14 706,038348
MXIMO 0:02:18 800,440260
0:00:39 742,155586
MEDIA

0,000921
0,000994
0,000932
0,000992
0,000967
0,000915
0,000974
0,000971
0,000932
0,000937
0,000981
0,000918
0,000942
0,000909
0,000984
0,000929
0,000952
0,000908
0,000949
0,000907

0,000029
0,000367
0,000339
0,000339
0,000299
0,000238
0,000314
0,000286
0,000251
0,000273
0,000039
0,000033
0,000038
0,000038
0,000039
0,000040
0,000063
0,000039
0,000041
0,000039

Error
Max

Error
P

0,000978
0,000975
0,000958
0,000966
0,000951
0,000977
0,000992
0,000936
0,000969
0,000995

0,000032
0,000042
0,000044
0,000039
0,000032
0,000280
0,000041
0,000040
0,000278
0,000043

0,238095
0,166667
0,214286
0,166667
0,309524
0,261905
0,190476
0,190476
0,238095
0,214286
0,214286
0,214286
0,261905
0,309524
0,261905
0,214286
0,285714
0,309524
0,166667
0,238095

0,236169
0,243442
0,240851
0,245450
0,328014
0,198844
0,159651
0,174357
0,217842
0,165786
0,175863
0,165309
0,205045
0,188605
0,204808
0,222493
0,177053
0,171298
0,186132
0,221432

Error
Producto
T
0,166667
0,190476
0,309524
0,238095
0,238095
0,190476
0,238095
0,166667
0,166667
0,166667

0,244862
0,198539
0,168306
0,195903
0,325101
0,238536
0,326708
0,305518
0,210546
0,218111

0,000000 0,000812 0,000029 0,119047 0,136424


0,000057 0,000996 0,000393 0,333333 0,346713
0,000013 0,000945 0,000144 0,210000 0,230868

La solucin ptima para este problema dada en TSPLIB tiene longitud 699.
La mejor solucin encontrada en este estudio es de longitud 706,04, un 1% mayor que
la ptima.
9

6. Conclusiones
Los mapas de rasgos autoorganizativos propuestos por Teuvo Kohonen se pueden
aplicar a la resolucin del Problema del Viajante de Comercio. La Red contar con dos
entradas y tantas salidas como ciudades incluya el problema. Las coordenadas de las
ciudades constituyen el conjunto de patrones de entrenamiento de la Red. Dichos
patrones se presentan de forma iterativa a la entrada de la red, para que sta ajuste sus
pesos de forma que cada neurona tienda a aproximarse a una ciudad. Cuando el error de
ajuste entre cada par neurona-ciudad alcance un mnimo establecido, la red habr
encontrado un camino entre las ciudades. Para poder definir un camino cerrado, se
considera que las neuronas de la capa de salida de la Red forman un anillo. El camino
vendr definido por las ciudades asociadas a las sucesivas neuronas de la capa de salida,
siguiendo el orden en que estas estn colocadas en dicha capa.
En muchas ocasiones aplicando el algoritmo bsico de entrenamiento de la Red
Neuronal se puede alcanzar una solucin al problema. Sin embargo, en otros casos las
neuronas no se ajustan a las diferentes ciudades del problema, lo que impide alcanzar un
camino vlido. Para evitar estos problemas, se propone modificar el algoritmo de
Kohonen de forma que:
a) El nmero de neuronas de la capa de salida pueda aumentar o disminuir durante
el entrenamiento
b) Cuando una neurona no gana durante varias iteraciones de entrenamiento, se
elimina del mapa
c) Cuando una neurona gana para varias ciudades, se aade a su lado otra neurona
Se observa que al aplicar el algoritmo desarrollado se encuentra una solucin factible
para todos los problemas. En algunos casos el resultado obtenido es el ptimo, pero
en otros solamente se aproxima. En cualquier caso, el resultado obtenido es un buen
punto de partida para aplicar otro mtodo de bsqueda del camino ms corto.
En algunos problemas se requiere mucho tiempo para completar el ajuste nicamente
porque uno o dos puntos no se ajustan. Si se observa dicha situacin, se puede detener
el entrenamiento, teniendo en cuenta que esa o esas ciudades no estn ajustadas, o
proseguir hasta que se produzca el ajuste. Se ha observado que en algunos problemas la
segunda opcin puede requerir muchas iteraciones, pero siempre se alcanza una
solucin.

10

Referecias
Cottrell, M.; Girard, B.; Girard, Y.; Muller, C.; Rousset, P. (1995) Daily Electrical Power Curves:
Classification And Forecasting Using A Kohonen Map, From Natural To Artificial Neural Computation.
En J. Mira, F. Sandoval (Eds.), Proc. IWANN'95, Lecture Notes in Computer Science, vol. 930, Springer,
Berlin, pp.1107-1113.
Cottrell, M.; Girard, B.; Rousset, P. (1998) Forecasting Of Curves Using A Kohonen Classification. J.
Forecasting.
Cottrell, M.; Fort, J.C.; Pags, G. (1998) Theorical Aspects Of The SOM Algorithm. Neurocomputing
21, pp.119-138.
Erwin, E.; Obermayer, K.; Schulten, K. (1992) Self-Organizing Maps: Stationary States, Metastability
And Convergence Rate. Biological Cybernetics 67, pp.35-45.
Favata, F; Walker, R. (1991) A Study Of The Application Of Kohonen-Type Neural Networks To The
Traveling Salesman Problem. Biological Cybernetics 64, 6, pp.463-468.
Fort, J.C.; Pags, G. (1996) Quantization vs Organization In The Kohonen SOM. M. Verleysen (Ed.),
Proceedings ESANN'96, Editions D Facto, Bruges, pp.85-89.
Fort, J.C. (1988) Solving A Combinatorial Problem Via Self-Organizing Process: An Application Of
The Kohonen Algorithm To The Travelling Salesman Problem. Biological Cybernetics 59, 1, pp.33-40.
Fritzke, B.; Wilke, P. (1991) FLEXMAP: A Neural Network For The Travelling Salesman Problem
With Linear Time And Space Complexity. Proceedings of the International Joint Conference on Neural
Networks, Singapore pp.929-934. IEEE Service Center.
Kohonen, T.; Makisara, M.; Saramaki, T. (1984) Phonotopic Maps-Insightful Representation Of
Phonological Features For Speech Recognition. Proceedings of the 7th IEEE International Conference
on Pattern Recognition. DUNNO.
] Kohonen, T.; Hynninen, J.; Kangas, J.; Laaksonen, J. (1996) SOM_PAK: The Self-Organizing Map
Program Package. Technical Report A 31, Helsinki University of Technology, Laboratory of Computer
and Information Science, Espoo, Finland.
Kohonen, T.; Hynninen, J.; Kangas, J.; Laaksonen, J.; Torkkola, K. (1996) LVQ_PAK: The Learning
Vector Quantization Program Package. Report A30, Helsinki University of Technology. Faculty of
Information Technology.
Kohonen, T.; Somervuo, P. (1997) Self-Organizing Maps Of Strings With Application To Speech
Recognition. T. Kohonen (eds.), Proceedings WSOM97, Workshop on Self-Organizing Maps, Helsinki
University of Technology, Laboratory of Computer and Information Science, Finland, pp.2-7.
Kohonen, T. (1977) Associative Memory: A System Theoretical Approach. Springer-Verlag, Berln.
Kohonen, T. (1982) Analysis Of A Simple Self-organizing Process. Biological Cybernetics 43, 1,
pp.135-140.
Kohonen, T. (1982) Self-organized Formation Of Topologically Correct Feature Maps. Biological
Cybernetics 43, pp.59-69.
Kohonen, T. (1984) Self-Organization And Associative Memory. Springer-Verlag, Berln. (3 edicin)
Kohonen, T. (1988) An Introduction To Neural Computing. Neural Networks 1, 1.
Kohonen, T. (1988) Self-Organization And Associative Memory. Second Edition, Springer-Verlag,
New York.
Kohonen, T. (1988) Statistical Pattern Recognition with Neural Networks: Benchmark Studies.
Proceedings of the Second Annual IEEE International Conference on Neural Networks, Vol. 1.
Kohonen, T. (1988) The <<Neural>> Phonetic Typewriter. Computer 21, 3, pp.11-22.
Kohonen, T. (1989) Speech Recognition Based On Topology Preserving Neural Maps. En I.
Aleksander (Ed.), Neural Computation, Kogan Page, London.
Kohonen, T. (1989) Self-Organization And Associative Memory. Springer-Verlag, Berlin-HeidelbergNew York-Tokio, 3er edition.
Kohonen, T. (1990) The Self-Organizing Map. Proceedings IEEE, vol. 78, n 9, pp.1464-1480.
Kohonen, T. (1991) Self-Organizing Maps: Optimization Approaches. T. Kohonen et al. (Eds.),
Artificial Neural Networks, vol. II, North-Holland, Amsterdam, pp.981-990.

11

Kohonen, T. (1993) Physiological Interpretation Of The Self-Organizing Map Algorithm. Neural


Networks 6, pp.895-905.
Kohonen, T. (1995) Self-Organizing Maps. Springer Verlag.
Kohonen, T. (1997) Self-Organizing Maps (2nd edition.). Springer Verlag.
Kohonen, T. (1998) The Self-Organizing Map. Neurocomputing 21, pp.1-6.
Ritter, H. J.; Martinetz, T. M.; Schulten, K. J. (1989) Topology Conserving Maps For Motor Control.
L. Personnaz, G Dreyfus (Eds.), Neural Networks, from Models to Applications, IDSET, Paris.
Ritter, H. J.; Martinetz, T. M.; Schulten, K. J. (1989) Topology-Conserving Maps For Learning
Visuomotor-Coordination. Neural Networks 2, pp.159-168.
Scheweizer, L.; Parladori, G.; Sicuranza, G.L.; Marsi, S. (1991) A Fully Approach To Image
Compression. Artificial Neural Networks, T. Kohonen, K. Mkis ara, O. Simula & J. Kangas, Eds.
North-Holland, Amsterdan, pp.815-820.
Von der Malsburg, C. (1973) Self-Organization Of Orientation Sensitive Cells In The Striate Cortex.
Kybernetik 14, pp.85-100.
Whitley, D.; Dzubera, J. (1994) Advance Correlation Analysis Of Operators For The Traveling
Salesman Problems. Parallel Problem Solving from Nature-PPSN III. Y. Davidor, H.P. Schwefel and R.
Manner, eds., Springer-Verlag, pp.68-77.
Whitley, D.; Mathias, K. (1992) Genetic Operators, The Fitness Landscape And The Traveling Salesman
Problem. Parallel Problem Solving from Nature-PPSN 2. R. Manner and B. Manderick, eds., pp.219228. North Holland-Elsevier.
Widrow, B. (1962) Generalization And Information Storage In Networks Of Adaline Neurons. En
Self-organizing Systems, ed. M.C. Yovitz, G.T. Jacobi, and G. Goldstein, Washington, DC: Spartan
Books, pp.435-461.
Wilson, G.V.; Pawley, G.S., (1988) On The Stability Of The Traveling Salesman Problem Algorithm Of
Hopfield And Tank. Biological Cybernetics 58, pp.63-70.
Xu, X.; Tsai, W.T. (1990) Effective Neural Algorithms For The Travelling Salesman Problem. Neural
Networks 4, pp.193-205.
Zachariasen, M.; Dan, M. (1995) Tabu Search On The Geometric Traveling Salesman Problem,
Presented at Metaheuristics International Conference 95, Breckenridge, Colorado, USA.

12

Вам также может понравиться