Академический Документы
Профессиональный Документы
Культура Документы
La superficie de error de una red monocapa lineal tiene un solo mnimo y una curvatura constante
La superficie de error en una multicapa puede tener varios mnimos locales y la curvatura puede variar ampliamente en diferentes regiones.
Noviembre 2002 ESCOM IPN 3
w21,1
5
-5 -5
10
15
w11,1
Noviembre 2002 ESCOM IPN 4
0 -5 0 5 10 15 15 10 0 5 -5
w21,1
Noviembre 2002
w11,1
ESCOM IPN 5
Ejemplo de Convergencia
15
b
10
w21,1
a
-5 -5 0 5 10 15
Noviembre 2002
ESCOM IPN
w11,1
w21,1
-5 -5
10
15
Noviembre 2002
w11,1
ESCOM IPN
1.- No ajustar los parmetros iniciales a cero. 2.- no ajustar los parmetros iniciales a valores grandes. 3.- Escoger valores iniciales aleatorios pequeos. 4.- Probar con diferentes valores iniciales hasta alcanzar un mnimo global o un error mnimo.
ESCOM IPN 9
Noviembre 2002
Ejemplos
Mtodo del Gradiente Descendente
Noviembre 2002 ESCOM IPN 11
Ejemplo: 1
Aplique el algoritmo de Gradiente Descendente a la siguiente funcin. 2 2 F ( x) x1 25 x2 Los Valores iniciales son:
a 0.01
A) Realice 5 iteraciones. B) Dibuje la superficie de error en 2D. C) Grafique los punto obtenidos.
Noviembre 2002 ESCOM IPN 12
0.5 x0 0.5
solucin
Noviembre 2002
ESCOM IPN
13
Simulacin en
Matlab / NNT
Noviembre 2002 ESCOM IPN 14
Algoritmo de Retropropagacin
de Gradiente Descendente (SDBP)
traingd
Entrena redes multicapa actualizando W y b con retropropagacin usando el gradiente descendente. Sintaxis [net,tr] = traingd (net, P,T,A,Q,Ts,VV)
Noviembre 2002
ESCOM IPN
15
Donde: net = Define la red neuronal net = netff([0 5 ] [3 1] {tansig purelin} traingd) P patrones de entrada T valores objetivo Ai Condiciones iniciales Q Tamao del lote Ts Tamao del paso VV Matriz vaca o vectores de validacin
Noviembre 2002 ESCOM IPN 16
Dudas ???
Noviembre 2002
ESCOM IPN
18