Вы находитесь на странице: 1из 3

Resumen de los videos

Video 1:

Este video habla sobre el perceptrón multicapa, que es una red neuronal artificial (RNA) formada
por múltiples capas, de tal manera que tiene capacidad para resolver problemas que no son
linealmente separables, lo cual es la principal limitación del perceptrón. El perceptrón multicapa
puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de
la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada
neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1".

El perceptrón multicapa (de aquí en adelante MLP, MultiLayer Perceptron) se utiliza para resolver
problemas de asociación de patrones, segmentación de imágenes, compresión de datos, etc.

Video2:

El Descenso del Gradiente es el algoritmo de entrenamiento más simple y también el más


extendido y conocido. Solo hace uso del vector gradiente, y por ello se dice que es un método de
primer orden.

Aunque es muy sencillo, este algoritmo tiene el gran inconveniente de que, para funciones de
error con estructuras con valles largos y estrechos, requiere muchas iteraciones. Se debe a que,
aunque la dirección elegida es en la que la función de error disminuye más rápidamente, esto no
significa que necesariamente produzca la convergencia más rápida.

Por ello, es el algoritmo recomendado cuando tenemos redes neuronales muy grandes, con
muchos miles de parámetros, ya que sólo almacena el vector gradiente (de tamaño n), pero no
hace uso de la Hessiana (de tamaño n2).

Video3:

Comprobación de la fórmula del Descenso del gradiente

Video4:
Este video habla sobre la propagación hacia atrás de errores o retropropagación (del inglés
backpropagation) es un método de cálculo del gradiente utilizado en algoritmos de aprendizaje
supervisado utilizados para entrenar redes neuronales artificiales. El método emplea un ciclo
propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la
red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la
red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una
señal de error para cada una de las salidas.

Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia todas las
neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo, la neurona de
la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente
en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se
repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error
que describa su contribución relativa al error total.

La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de
las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a
reconocer distintas características del espacio total de entrada. Después del entrenamiento,
cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto,
las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada
contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan
aprendido a reconocer durante su entrenamiento.

Video 5,6 y 7

Desarrollo la demostración de la fórmula del back propagation


Luego conectar las salidas con la función error y luego terminar la derivada del error.

Вам также может понравиться