Академический Документы
Профессиональный Документы
Культура Документы
Inicio y crear un
objeto de la red
Entrenar la red
Comparar resultados
de la salida de la red
al entrenar y validar
SIMULACIÓN DE LA NEURAL NETWORK CON MATLAB
newff
• Define la red, arquitectura, tamaño y tipo de entrenamiento usado.
Se inicia autoamáticamente.
Las dos últimas letras en newff indica el tipo de red neuronal usada:
realimentación directa
APLICACIÓN
• Considere la función humps en Matlab, dado por:
• Encontrar una red neuronal de los datos generados por la función humps
entre [0,2].
a) Implementar una red perceptron multicapa, diferentes tamaños de red y
algoritmos.
b) Repita la aplicación con las redes de funciones de base radial
SIMULACIÓN DE LA NEURAL NETWORK CON MATLAB
Solución
Para obtener datos use los siguientes comandos
• x = 0:.05:2;
• y=humps(x);
• P=x;
• T=y;
• % Plot the data
• plot(P,T,’x’)
• grid;
• xlabel(’time (s)’);
• ylabel(’output’);
• title(’humps function’)
FUNCIÓN HUMPS
ALGORITMOS DE ENSEÑANZA PARA REDES PERCEPTRÓN
• %Train network
• o el mismo rendimiento.
• % Simulate how good a result is achieved: Input is the same input vector P.
• a= sim(net1,P);
• plot(P,a-T, P,T);
• grid;
% Aumentar el tamaño de la red : 20 nodos de la primera capa oculta .
• net=newff(P, T,20, {‘tansig’ ’purelin’},’traingd’);
% De lo contrario, aplicar los mismos parámetros del algoritmo e iniciar el
proceso de formación.
• net.trainParam.show = 50; % The result is shown at every 50th iteration
(epoch)
• net.trainParam.lr = 0.05; % Learning rate used in some gradient schemes
• net.trainParam.epochs =1000; % Max number of iterations
• net.trainParam.goal = 1e-3; % Error tolerance; stopping criterion
• %Train network
• net1 = train(net, P, T); % Iterates gradient type of loop
• TRAINGD, Epoch 1000/1000, MSE 0.299398/0.001, Gradient 0.0927619/1e-010
• TRAINGD, Maximum epoch reached, performance goal was not met.
• P1=x1;
• y1=humps(x1);
• T1=y1;
• a1= sim(net1,P1);
• plot(P1,a-a1,P1,T1,P,T)
Generar datos con modelo de SIMULINK
• gensim(net1,-1)
Si abre el bloque de
red neuronal , se ver
más detalles.
Abra la capa 1 .
Se ve el e diagrama de
bloques de Neural
Network
Toolbox .
En el ejemplo,
bloque retrasos
es el mapa de la
unidad,
no hay retrasos en uso.
Abre el bloque de peso,
la cifra que aparece se
muestra a continuación.
El número de nodos
reducido a 5, de modo
que se adapte a la figura
en la página, en el
ejemplo tenemos 20 .
El bloque generado con gensim realmente se aproxima a los datos dados,
se alimentamos en los valores de x en el intervalo [ 5,5 ] .