Академический Документы
Профессиональный Документы
Культура Документы
Beimar Pereira Mndez Sergio Pinto Carlos Ardila Andrs Felipe Jaimes Snchez
Fundamentos biolgicos
El Modelo Biolgico
Estructura de la neurona Naturaleza dielctrica de la neurona
Tipos de Sinapsis
Sinapsis excitadora : neurotransmisores disminuyen potencial. Sinapsis inhibidora: neurotransmisores estabilizan el potencial.
Neurona Artificial
activacin:
Continuos Discretos
hay una funcin de salida, que transforma el estado actual de activacin en una seal de salida.
Neurona de funcin escaln: salidas binarias.
Neuronas de funcin lineal y mixta: la activacin es la suma de seales de entrada definida en lmites inferior y superior.
Neuronas de funcin continua (sigmoidal): derivada siempre positiva y cercana a cero. Reglas de aprendizaje para la funcin escaln.
Funcin de transferencia gaussiana: mas adaptativas que las funciones sigmoidales por la versatilidad de sus centros y anchura.
Mecanismo de Aprendizaje
Redes con aprendizaje supervisado
Aprendizaje por correccin de error: Consiste en ajustar los pesos en funcin de la diferencia entre los valores deseados y los obtenidos en la salida de la red; es decir, en funcin del error.
Aprendizaje con refuerzo: La funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida obtenida en la red se ajusta a la deseada (xito=+1 o fracaso=-1), y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades. Aprendizaje estocstico: Este tipo de aprendizaje consiste bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.
Aprendizaje hebbiano: ajuste de los pesos de las conexiones de acuerdo con la correlacin, as si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin. Por el contrario cuando un es activa y la otra pasiva (negativa), se produce un debilitamiento de la conexin. Aprendizaje competitivo y cooperativo: pretende que cuando se presente a la red cierta informacin de entrada, solo una de las neuronas de salida se active (alcance su valor de respuesta mximo). Por tanto las neuronas compiten por activarse , quedando finalmente una, o una por grupo, como neurona vencedora.
Redes de Autoproceso
Procesamiento Numrico
Procesamiento Simblico
Sistemas Asociativos
Sistemas Distribuidos
Redes Subsimblicas
Redes Neuronales
proceso de tratamiento de la informacin. 1936: Alan Turing, primero en estudiar el cerebro como una forma de ver el mundo de la computacin. 1943: Warren McCulloch y Walter Pitts, fundamentos de la computacin neuronal. 1949: Donald Hebb, teora de redes neuronales. 1957: Frank Rosenblatt, desarrollo del Perceptrn. 1959: Bernard Widrow y Marcial Hoff, desarrollo del modelo ADALINE. 1967: Stephen Grossberg, realiz Avalancha 1969: Marvin Minsky y Seymour Papert, Libro Perceptrons. 1977: James Anderson, desarrollo el Asociador Lineal. (Teuvo Kohonen, 1977) (Jonh Hopfield, 1982) 1980: Kunihiko Fukushimika, desarrollo del Neocongnitron. 1985-1991: Neural Networks for Computting, Neural Information Processing Systems, entre algunas otras.
Sistemas inteligentes
1. 2. 3. 4. 5.
Proceso de todo o nada ( 1 0) Excitar sinapsis Excitar neuronas nico retraso Retraso sinptico Sinapsis inhibitoria Neurona inactiva Estructura de la red No cambia en el tiempo
Actividad
Activa
Si
supera umbral? Hay sinapsis inhibitoria? Si Inactiva No No
AND
0
OR
NOT
Perceptrn Simple
Es un tipo de RNA de aprendizaje supervisado.
viceversa.
Funcin Activacin de tipo escaln. Neuronas de Entrada son Discretas.
Arquitectura
Grficamente podemos representar el modelo de la siguiente forma:
1 = si W1 X1 + W2 X2 + > 0 Y= -1 = si W1 X1+ W2 X2 + 0
X1
Proceso
Definir los puntos en un determinado espacio de N
dimensiones.
Se Busca Realizar separacin lineal correcta.
Hallar ecuacin del hiperplano, para obtener los pesos
respectivos.
Realizar clculos.
Aprendizaje
Proceso iterativo supervisado. Modificacin de Peso y umbral hasta encontrar el plano discriminante. Numero finito de iteraciones
X1 0 0 1 1
X2 0 1 0 1
OR 0 1 1 1
X1 0 0 1 1
X2 0 1 0 1
AND 0 0 0 1
X1 0 0 1 1
X2 0 1 0 1
XOR 0 1 1 0
- A diferencia del Perceptrn, Adaline estima una salida real. - Posee una sola capa de n neuronas n salidas - m entradas:
Vector x en Rm Vector w de pesos sinpticos
Salida
=
+
=1
Es Unidireccional. Se basa en la red del perceptrn simple. Adicionalmente tiene capas ocultas.
produce procesamiento. Capa Oculta: Formas por las neuronas entrantes y le da informacin a las salientes. Capa de Salida: Neuronas cuyas salidas corresponden a las salidas de toda la red
X1 2
-2
F1
1 F3
X2
2 F2 -2
Umbral = 0
=2 X1 1 F3 1 X2 F2 -1 =2 -1 F1
=1
A las tareas que tienen suficientes patrones ejemplo, y no tienen una solucin logartmica eficiente
En general, las redes neuronales tratan de resolver de forma eficiente problemas que pueden encuadrarse dentro de tres amplios grupos: optimizacin, reconocimiento y generalizacin.
Optimizacin
SOLUCIONES OPTIMAS Niveles adecuados de tesorera, de existencias, de produccin.
Este es uno de los campos ms fructferos en el desarrollo de redes neuronales y casi todos los modelos de red neuronal han sido aplicados con mayor o menor xito.
Tratamiento de imgenes, reconocimiento ptico de caracteres
Clasificacin y prediccin.
Tratar de predecir la quiebra de las empresas a partir de su informacin contable o la concesin de prstamos, la calificacin de obligaciones, la prediccin en los mercados de valores, etc.
Una red neuronal del Chase Manhattan Bank para la concesin de prstamos (Perceptrn multicapa)