Вы находитесь на странице: 1из 24

Redes Neuronales Artificiales

Adaline-Madaline

Utilizan un aprendizaje OFF LINE con supervisión


denominado LMS (Least Mean Squared) o regla del
mínimo error cuadrático medio (Widrow). También
denominado Regla Delta.
El aprendizaje busca encontrar el mejor vector de
pesos posible en términos del criterio de error
Redes Neuronales Artificiales

cuadrático medio.
ADALINE está limitada a una única neurona de
salida. Un vector x como su entrada y un número
real y como su salida. MADALINE es una
combinación de neuronas ADALINE.
2
Adaline-Madaline

x0=1
x
1 w s Salida
1
x
2 lineal
w y
2

Conmutador Salida
Redes Neuronales Artificiales

x w binaria
N N
Conmutador bipolar
adaptativo
lineal

Estructura de la red ADALINE


3
Adaline-Madaline

. . .
Capa de entrada. . Capa de salida
Redes Neuronales Artificiales

.
. . .

Capa oculta

Estructura red MADALINE


4
ART (Adaptive Resonance Theory)

Esta teoría se aplica a sistemas competitivos (redes


con aprendizaje competitivo).
La red busca categorizar los datos que le son
introducidos.
La teoría se basa en la idea de hacer resonar la
Redes Neuronales Artificiales

información de entrada con las categorías que ya


reconoce la red.

5
ART (Adaptive Resonance Theory)

Q Estructura:
Capa competitiva (salida)
Oi
-N
wij wij
1 -1
A Capa de comparación (entrada) R
Redes Neuronales Artificiales

Vj
1 p

xj

6
ART (Adaptive Resonance Theory)

El aprendizaje es de tipo ON LINE, no se distingue


entre etapa de entrenamiento y de funcionamiento.
Los pesos varían durante el funcionamiento de la red
cuando se aplica información de entrada a la misma.
Utiliza un aprendizaje no supervisado de tipo competitivo.
Redes Neuronales Artificiales

Se pueden dar dos tipos de aprendizaje:


Aprendizaje rápido. Se establece una nueva categoría.
Aprendizaje lento. Una información de entrada es asociada a
una categoría existente.

7
ART (Adaptive Resonance Theory)

Aplicaciones:
Tareas de reconocimiento de patrones
Modelamiento de procesos biológicos
Diseño de sistemas de control y diagnóstico
adaptativo.
Redes Neuronales Artificiales

8
Mapas autorganizados de Kohonen

Q Principio de entrenamiento auto-organizado


(opuesto al aprendizaje supervisado).
Q La red consiste básicamente de dos conjuntos de
unidades, cada unidad de salida conectada a todos
los n nodos de entrada.
Redes Neuronales Artificiales

9
Mapas autorganizados de Kohonen

Q La idea básica que yace en las SOFM es la


incorporación a la regla de aprendizaje
competitivo un cierto grado de sensibilidad con
respecto al vecindario o la historia.
Q Esto hace que el número de neuronas que no
aprenden desaparezca y ayuda a que se
Redes Neuronales Artificiales

destaquen propiedades topológica que aparezcan


en el mapeado de características.

10
Q Suponiendo que un vector de entrada tiene N
características y se representa por un vector X en
un espacio de patrones N-dimensional.
Q La red mapea el patrón de entrada hacia un
espacio de salida.
Por ejemplo, el espacio de salida puede ser un
Redes Neuronales Artificiales

Q
array unidimensional o bidimensioanl de nodos
de salida, que posee cierto orden topológico.

11
Mapas autorganizados de Kohonen

Estructura de la red

...
........................ Capa de Salida
...
Redes Neuronales Artificiales

Conexiones feedforward

... Capa de Entrada

12
Mapas autorganizados de Kohonen
Redes Neuronales Artificiales

13
Mapas autorganizados de Kohonen

Q Aprendizaje no supervisado de tipo competitivo.


Q Las neuronas de la capa de salida compiten por
activarse y sólo una de ellas lo consigue.
Q Es de tipo OFF LINE y se distinguen dos etapas:
– Aprendizaje
Redes Neuronales Artificiales

– Funcionamiento

14
Q La cuestión es cómo entrenar la red para que esa
relación de orden se preserve.
Q Kohonen propuso que las neuronas de salida
interactuaran lateralmente, llegando así a los mapas
de características autorganizativos.
Redes Neuronales Artificiales

15
Q La característica más importante del modelo es
el concepto de aprendizaje en un vecindario
próximo a la neurona ganadora.
Q El tamaño del vecindario decrece en cada
iteración.
La fase de entrenamiento es la siguiente:
Redes Neuronales Artificiales

16
Q (1) se selecciona la neurona ganadora con la
distancia Euclídea
Q Sea i* el índice del ganador, y sea I*el conjunto
de índices correspondiente a un vecindario
definido del ganador i*.
(2) los pesos asociados con el ganador y su
Redes Neuronales Artificiales

Q
vecindario se adaptan de la siguiente forma:

17
Aprendizaje competitivo
con sensibilidad en la Historia

Q Si se incorpora alguna sensibilidad a la historia o


frecuencia en la regla de entrenamiento, se obtiene
otra forma de evitar el problema de las neuronas que
no aprenden. Hay dos aproximaciones:
Q Modular la selección del ganador incorporando
sensibilidad a la frecuencia.
Redes Neuronales Artificiales

Q Modular la tasa de aprendizaje incorporando la


sensibilidad a la frecuencia.

18
Regla de aprendizaje competitivo

Q Selección de un ganador i*, por ejemplo,


como la neurona con la menor distancia
euclídea.
Q Adaptar los pesos asociados al ganador.
Redes Neuronales Artificiales

19
Mapas autorganizados de Kohonen

Q El aprendizaje es un proceso iterativo de


presentar a la red patrones de entrada hasta
lograr un refinamiento adecuado del mapa
topológico de salida.
Q Para calcular la distancia entre vectores se
aplica:
Redes Neuronales Artificiales

dj=Σi=1,N(ei(k) - wji)2 para 1<=j<=M

20
Mapas autorganizados de Kohonen

Q Luego de localizar la neurona vencedora (j*) se


actualizan los pesos de las conexiones entre las
neuronas de entrada y dicha neurona, así como
las conexiones entre las de entrada y las neuronas
vecinas a la ganadora mediante:
wji(t+1)=wji(t)+α(t)[ei(k)-wj*i(t)]
Redes Neuronales Artificiales

para j∈ Zona j*(t)

21
Mapas autorganizados de Kohonen

Q Funcionamiento:
– Cuando se presenta a la entrada una
información, cada una de las M neuronas de la
capa de salida la recibe por medio de las
conexiones feedforward con pesos wji.
– Las neuronas reciben las entradas debidas a las
Redes Neuronales Artificiales

conexiones laterales de las neuronas de salida


dependiendo su influencia de la distancia a la
que se encuentren.

22
Mapas autorganizados de Kohonen

Q Aplicaciones:
– Reconocimiento de patrones (voz, texto,
imágenes, señales, etc.)
– Codificación de datos
– Compresión de imágenes
Redes Neuronales Artificiales

23
Redes Neuronales Artificiales

24

Вам также может понравиться