Вы находитесь на странице: 1из 7

LA RED NEURONAL DE KOHONEN

ANTONIO JOSE GALAN HENRIQUEZ


MANUEL FERNANDO LIZARAZO BALLESTEROS
UNIVERSIDAD INDUSTRIAL DE SANTANDER
COLOMBIA

Se tiene una red neuronal de Kohonen con dos dimensiones en la capa de entrada (x,y) y nueve
(m=9) nodos o neuronas en la capa de salida, es decir una cuadricula de 3x3 que presenta I=10
iteraciones y un radio de actualización de vecindad de R=3, y RA=0,1 es la rata de aprendizaje.

Una vista más ilustrativa la red seria la que se ve a continuación donde la capa de salida tiene en
su parte inferior las dos dimensiones o el vector de dos dimensiones asociado a cada neurona o
nodo
Pasos para el trabajo con una red neuronal de Kohonen

1. Inicialización de pesos:

Los pesos son coeficientes que pueden adaptarse dentro de la red que determinan la
intensidad de la señal de entrada registrada por la neurona artificial. Ellos son la medida
de la fuerza de una conexión de entrada. Estas fuerzas pueden ser modificadas en
respuesta de los ejemplos de entrenamiento de acuerdo a la topología específica o debido
a las reglas de entrenamiento.

La inicialización de pesos se realiza generalmente aleatoriamente.

Capa de
entrada/ x y
Capa de salida
Neurona 1 0.3342 0.6177
Neurona 2 0.6987 0.8594
Neurona 3 0.1978 0.8055
Neurona 4 0.0305 0.5767
Neurona 5 0.7441 0.1829
Neurona 6 0.5000 0.2399
Neurona 7 0.4799 0.8865
Neurona 8 0.9047 0.0287
Neurona 9 0.6099 0.4899

2. Búsqueda de una base de datos para el entrenamiento de la red

Para este ejemplo tenemos una tabla de 5 registros que lógicamente debe ser de dos
dimensiones para que coincida con la capa de entrada para su posterior entrenamiento

Dimensión de los
registros/ x y
Registros
Registro 1 0.1679 0.0596
Registro 2 0.9787 0.6820
Registro 3 0.7127 0.0424
Registro 4 0.5005 0.0714
Registro 5 0.4711 0.5216

ITERACION 1/100
3. Encontrar la neurona ganadora o BMU mediante la diferencia euclídea.

Para este paso se escoge aleatoriamente un dato o registro de la base de datos de entrenamiento
y se compara con los pesos asociados de cada neurona de la capa de salida esta comparación con
cada neurona de la capa de salida se hace atreves de la distancia euclídea para cada nodo
entonces el nodo que arroje el menor valor de la distancia euclídea será la neurona ganadora o
BMU.

Entonces el proceso sería así:


4. BUSQUEDA LA VECINDAD DE ACTUALIZACION DE PESOS APARTIR DEL RADIO

Con la actual formula se haya el radio de actualización de pesos en función de la iteración actual.

Sigma = radio inicial, para este ejemplo 3

Lambda = (numero de interacciones) / (LN (sigma o)), en este caso = 10/LN (3)

EJEMPLO:

Para la primera iteración t=1

Tendremos de radio

Sigma= 3*EXP (-1/(10/LN (3)))= 2,69

Para la ultima iteración t=10

Tendremos de radio

Sigma= 3*EXP (-10/(10/LN (3)))= 1

Es decir el radio va disminuyendo gradualmente con el paso del tiempo o de las iteraciones,
tendríamos una grafica similar a las siguientes.

Área abarcada para un radio= 2,69 Área abarcada para un radio= 1

En la primera iteración En la última iteración


5. ACTUALIZACION DE PESOS DEL BMU Y LA VECINDAD ELEJIDA

ECUACION DE ACTUALIZACION DE PESOS

La primera ecuación describe la actualización de los pesos para cada neurona y está en función del
tiempo y de la función gaussiana y de la función de rata de aprendizaje.

Esta ecuación muestra cómo será el nuevo peso que tendrá la neurona cogiendo el antiguo peso y
sumándole la diferencia entre el registro de entrada y el peso de la neurona el cual es multiplicado
por la rata de aprendizaje u por la función gaussiana (es la función que actualiza con más
intensidad las neuronas cercanas al BMU)

ECUACION DE RATA DE APRENDIZAJE

Donde L es la rata de aprendizaje y depende de la iteración actual, y Lo es la rata de aprendizaje


inicial o por defecto, en este caso 0,1. La rata de aprendizaje decrece exponencialmente con el
tiempo y tiende a cero. Donde lambda=numero de iteraciones.

La rata de aprendizaje para la primera iteración seria L (1) = 0,1*EXP (-1/10)=0,09

La rata de aprendizaje para la ultima iteración seria L (10) = 0,1*EXP (-10/10)=0,034

ECUACION DE FUNCION GAUSSIANA

Ahora la ecuación de la función gaussiana, esta ecuación es un factor para la actualización de los
pesos y depende de la iteración en que se encuentre y de la distancia entre la neurona a actualizar
y la BMU, entre mayor sea la distancia entre estas dos neuronas el impacto de actualización será
menor o tendrá menos efecto.
PARA LA PRIMERA ITERACION

La función gaussiana para la neurona más alejada la BMU, es decir la neurona 8:

O (t) = EXP ((-2,5^2)/2*2,69^2)=0.65

La función gaussiana para la neurona más cercana al BMU, es decir la neurona 2, ella misma:

O (t) = EXP ((-0^2)/2*2,69^2)=1

LOS RESULTADOS FINALES PARA LA PRIMERA ITERACION DE LOS NUEVOS PESOS SERAN:

Tenemos los siguientes parámetros para iteración=1.

 Radio (i=1)=Sigma (i=1)=2.69


 Neuronas que se encuentra dentro del radio para (i=1)= 1, 2, 3, 4, 5, 6, 8
 La rata de aprendizaje para la primera iteración seria L (1) = 0,09
 Función gaussiana para la neurona 8= O (t) = EXP ((-2,5^2)/2*2,69^2)=0.65
 Función gaussiana para la neurona 1= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86
 Función gaussiana para la neurona 3= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86
 Función gaussiana para la neurona 4= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86
 Función gaussiana para la neurona 5= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86
 Función gaussiana para la neurona 6= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86
 Función gaussiana para la neurona 2= O (t) = EXP ((-0^2)/2*2,69^2)=1
Ahora se repite todo este proceso mencionado anteriormente 100 veces que es el numero de
iteraciones seleccionado.

Вам также может понравиться