Академический Документы
Профессиональный Документы
Культура Документы
Cada neurona toma como como entradas las salidas las neuronas antecesoras,
multiplica cada una de esas entradas por un peso y mediante una función de
activación calculan una salida. Esta salida es a su vez entrada de la neurona a la
que precede.
La red neuronal artificial al igual que las redes biológicas aprenden por repetición y
cuantos más datos tengamos para entrenar y más veces la entrenemos a la red
mejores resultados obtendremos.
Repetimos el proceso y vemos que ahora nos hemos acercado 6,8, pero todavía no
es correcto, por ello repetimos este proceso hasta llegar un valor que consideremos
aceptable.
Una vez visto el ejemplo, vamos a dividir este proceso en tres partes para poder
entender de forma más técnica como es capaz de aprender una red neuronal
artificial.
Forward propagation
Este proceso que parte de las neuronas de la capa de entrada y termina en las
neuronas de la capa de salida.
En este proceso cada neurona realiza una suma ponderada de todas las entradas
de acuerdo a unos pesos, pasa el resultado por una función de activación y genera
el resultado, que pasa a la siguiente capa.
Este proceso se repite hasta la última capa de neuronas que nos devuelve el
resultado de la red.
Calcular el coste de la función
La función de coste calcula el error entre el valor estimado por la red y el valor real
que debería de haber salido, con el fin de optimizar los parámetros de la red
neuronal.
Backpropagation
REDES HIBRIDAS-COMPLEJAS
Descripción de la Red Híbrida Compleja (HCNN)
Generador Armónico
El modelo HCNN está estructurado de la siguiente forma: generadores armónicos
en el primer nivel, y conexiones hacia adelante del primer nivel al nivel escondido,
y del nivel escondido al último nivel. La recurrencia de la Red Híbrida se presenta
los generadores armónicos y en otras partes de la red. Para realizar el
entrenamiento de esta red se utiliza el algoritmo de BPTT.