Академический Документы
Профессиональный Документы
Культура Документы
Cusco Per
2017
INTRODUCCION
La mayora de los mtodos de entrenamiento utilizados en las redes neuronales con conexin
hacia delante consisten en proponer una funcin de error que mida el rendimiento actual de la red
en funcin de los pesos sinpticos. El objetivo del mtodo de entrenamiento es encontrar el
conjunto de pesos sinpticos que minimizan (o maximizan) la funcin. El mtodo de
optimizacin proporciona una regla de actualizacin de los pesos que en funcin de los patrones
de entrada modifica iterativamente los pesos hasta alcanzar el punto ptimo de la red neuronal.
REDES NEURONALES
Las redes neuronales intentan imitar el funcionamiento del sistema nervioso de los animales, en
los cuales, las neuronas son excitadas mediante impulsos elctricos en sus entradas y ofrecen otro
impulso elctrico a su salida. Se trata de imitar este comportamiento debido a la robustez ofrecida
por el sistema nervioso biolgico. La salida de cada neurona vendr definida por tres funciones:
La funcin de excitacin, que por lo general consiste en el sumatorio de cada una de las entradas
multiplicada por el peso de esa entrada. Este peso puede ser positivo (excitatorio), o negativo
(inhibitorio).
Funcin de activacin, que modifica la anterior. si no existiera esta funcin, la salida sera
idnticamente la salida de la funcin de excitacin. Por ltimo se define la funcin de
transferencia que se aplica al valor devuelto por la funcin de activacin. Su funcin es la de
acotar la salida de
la neurona y suele venir determinada por la funcin que se le desee dar a dicha neurona. En
oposicin al paradigma clsico de programacin en ingeniera software, al aproximacin al
problema basada en redes neurales parte de un conjunto de datos a la entrada suficientemente
expresivo de dicho problema. El objetivo ltimo es conseguir que la red aprenda de forma
totalmente automtica las propiedades que se desea que tenga el sistema. Desde este punto de
vista, el diseo de una red neuronal est ms basado en cuestiones como la eleccin del tipo de
red, variables a tener en cuenta y la seleccin de los datos previos que componen los datos de
entrenamiento. Dichos datos, como se ha mencionado tienen que ser lo suficientemente
expresivos como para lograr con ellos un entrenamiento suficientemente expresivo para
garantizar un funcionamiento ptimo del sistema. Las caractersticas de las redes neuronales las
hacen notablemente apropiadas para aquellas aplicaciones en las cuales no se dispone de un
modelo identificable que pueda ser programado, pero por el contrario s que se dispone de un
cierto nmero de muestras de esa entrada. Se las considera especialmente robustas frente al ruido,
lo que las hace particularmente atractivos para la aplicacin que queremos estudiar en este
trabajo. Otra caracterstica de las redes neuronales es que son fcilmente paralelizables. Las redes
neurales son muy utilizadas en campos como la clasificacin y reconocimiento de patrones tanto
de voz como de imgenes. Se han utilizado para predecir y encontrar patrones de fraude
econmico, hacer predicciones en el mercado financiero, del tiempo atmosfrico, y otras muchas
aplicaciones de este tipo de complejidad. Incluso algunos tipos especiales de redes neurales han
sido aplicadas en conjuncin con algoritmos genticos para implementar controladores para
robots. Dentro de este campo, se ha creado una disciplina para tratar la evolucin de redes
neurales mediante algoritmos genticos, cuyo nombre es robtica evolutiva. Ciertos parmetros
de la red tales como la topologa de dicha red, algoritmo de aprendizaje, etc. constituyen en estos
casos el genoma utilizado por el algoritmo gentico.
FIGURA 2: Esquema de una Red Neuronal
AUTODETECCIN DE PERIODO
Otra de las propiedades que pueden ser derivadas de la utilizacin de una red neuronal para la
realizacin de un sistema de comunicaciones digital es que va a proveer a nuestro sistema de
autodeteccin de periodo. Esta no es una propiedad intrnseca de la tcnica utilizada pero se
puede conseguir mediante tcnicas de entrenamiento especializado de la red neural, o tcnicas de
deteccin de repetitividad del periodo. Esta tarea puede simplificarse sustancialmente si las
frecuencias utilizadas son mltiplo entero de alguna frecuencia fundamental, como podra ser la
mxima frecuencia permitida por el teorema de Nyquist. La tcnica de usar entrenamiento
especializado, supone enviar una secuencia del estilo 10000 representada en bits, y realizar
las observaciones de las entradas del primer grupo de neuronas y seleccionar aquellas cuya salida
es 1. Tambin podemos utilizar una tcnica que nos permita recuperar el periodo de muestreo
por medio de la deteccin de repeticin en las secuencias. El mtodo es entrenar con una
secuencia del tipo 101010101 Al entrenar con esta secuencia, los pesos neuronales deberan
tener una cierta correlacin de forma de forma que se repitieran de forma secuencial. El siguiente
paso es anular los pesos de las entradas que excedan del periodo. De esta forma, cuando la red
neuronal lea la seal lo har de N en N muestras (siendo N el periodo de la seal en muestras por
bit). Esto se realiza contando los pesos de las entradas consecutivas que contribuyen a que la
salida total de la red sea 1
BACK PROPAGATION
es un algoritmo de aprendizaje supervisado que se usa para entrenar redes neuronales artificiales.
El algoritmo emplea un ciclo propagacin adaptacin de dos fases. Una vez que se ha aplicado
un patrn a la entrada de la red como estmulo, este se propaga desde la primera capa a travs de
las capas superiores de la red, hasta generar una salida. La seal de salida se compara con la
salida deseada y se calcula una seal de error para cada una de las salidas.
Las salidas de error se propagan hacia atrs, partiendo de la capa de salida, hacia todas las
neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de
la capa oculta solo reciben una fraccin de la seal total del error, basndose aproximadamente en
la contribucin relativa que haya aportado cada neurona a la salida original. Este proceso se
repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una seal de error que
describa su contribucin relativa al error total.
La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de
las capas intermedias se organizan a s mismas de tal modo que las distintas neuronas aprenden a
reconocer distintas caractersticas del espacio total de entrada. Despus del entrenamiento,
cuando se les presente un patrn arbitrario de entrada que contenga ruido o que est incompleto,
las neuronas de la capa oculta de la red respondern con una salida activa si la nueva entrada
contiene un patrn que se asemeje a aquella caracterstica que las neuronas individuales hayan
aprendido a reconocer durante su entrenamiento.
FIGURA 3: BackPropagation