Академический Документы
Профессиональный Документы
Культура Документы
Artificiales
Juan Mauricio.
jmauriciov@usmp.pe
1
Contenido
1.
2.
3.
4.
5.
6.
Introduccin
Modelos bsicos y reglas de aprendizaje.
Red neural de retropropagacin
Sistemas auto-organizados
Redes neurales recurrentes.
Aplicaciones de RNA en Ingenieria
Introduccin
Modelo
computacional
inspirado
en
los
neuronios biolgicos y en la estructura del
cerebro
con
capacidad
de
ADQUIRIR,
ALMACENAR
y
UTILIZAR
conocimiento
experimental.
Introduccin
CEREBRO
Neuronio Biolgico
Red de neuronios
10 billones neuronios
Aprendizaje
Generalizacin
Asociacin
Reconocimiento de
padrones
REDES NEURONALES
Neuronio Artificial
Estructura en capas
centenas/millares
Aprendizaje
Generalizacin
Asociacin
Reconocimiento de
padrones
4
Introduccin
Red Neuronal Artificial: RNA
con el error
de
padrones
no
ruidosos
y/o
pueden
ser
Datos de
entrenamiento
Error=
9
Datos de
entrenamiento
Error=
10
11
Reglas de Aprendizaje
Perceptron
Delta Rule (Least Mean Square)
Back Propagation
12
13
14
15
16
17
Proceso de Aprendizaje
Proceso de minimizacin del error cuadrtico por el
mtodo del gradiente descendiente
18
Proceso de Aprendizaje
E = suma de errores cuadrticos
19
Calculo de
20
Calculo de
21
Calculo de ej
Depende de la capa a la cual el procesador j
pertenece
22
Calculo de ej
jcapa de salida
23
Calculo de ej
jcapa escondida
24
Calculo de ej
jcapa escondida
Por el aprendizaje supervisionado, solo se conoce el
error en la capa de salida (ek)
Error en la salida (ek) es funcin del potencial
interno del procesador (netk)
La netk depende de los estados de activacin de los
procesadores de la capa anterior (sj) y de los pesos
de las conexiones (wkj)
Por lo tanto, sj de una capa escondida afecta, en
mayor o menor grado, el error de todos los
procesadores de la capa subsecuente
25
Calculo de ej
jcapa escondida
26
Calculo de ej
jcapa escondida
27
Proceso de aprendizaje
En resumen, despus del calculo de la derivada, se
tiene:
Donde:
si = valor de entrada recibido por la conexin i
ej = valor cuadrtico del error del procesador j
28
29
30
Proceso de Aprendizaje
El algoritmo backpropagation tiene dos fase, para
cada padrn presentado:
Feed-Forward: Las entradas se propagan por la red,
de la camada de entrada hasta la camada de salida.
Feed-Backward: Los errores se propagan en la
direccin contraria al flujo de datos, desde la camada
de salida hasta la primera camada escondida.
31
Proceso de Aprendizaje
32
Proceso de Aprendizaje
33
Proceso de Aprendizaje
34
Proceso de Aprendizaje
35
Proceso de Aprendizaje
36
Proceso de Aprendizaje
37
Proceso de Aprendizaje
38
Proceso de Aprendizaje
39
Proceso de Aprendizaje
40
Proceso de Aprendizaje
41
Proceso de Aprendizaje
Este proceso de aprendizaje es repetido diversas
veces, hasta que, para todos los procesadores de la
capa de salida y para todos los padrones de
entrenamiento, el error sea menor que el
especificado.
42
Algoritmo de Aprendizaje
Inicializacin
Entrenamiento:
1.
2.
3.
4.
5.
Formas de Aprendizaje
Aprendizaje en Batch
Batch Learning, por ciclo
Aprendizaje Incremental
on-line, por padrn
44
Aprendizaje Batch
Aprendizaje en Batch, por ciclo
Solamente ajusta los pesos despus de la
presentacin de todos los padrones
Cada padrn es evaluado
configuracin de los pesos
con
la
misma
45
Aprendizaje Incremental
Aprendizaje en Batch, por padrn
Actualiza los pesos a cada presentacin de un
nuevo padrn
Los pesos son actualizados usando
gradiente del error de un nico padrn
el
46
47
Conclusin
48