Академический Документы
Профессиональный Документы
Культура Документы
por lo tanto no deben compararse directamente con el cerebro ni confundir los principios que
fundamentan el funcionamiento de las redes neuralesartificiales y el cerebro, ni pensar que las redes
neurales se basan únicamente en las redes biológicas ya que sólo emulan en una parte muy simple el
funcionamiento del cerebro humano.
Las redes neurobioligicas son conexiones muy complejas ya que llevan a procesos neurobiologicos
que son imposibles de representar con modelos matematicos llamados redes monocapas y
multicapas
Redes Monocapas
Se utilizan típicamente en en tareas relacionadas en lo que se conoce como autoasociación, las
neuronas crean conexiones laterales para conectar con otras neuronas de su capa. Las redes más
representativas son la red de Hopfield, la red BRAIN-STATE-IN-A-BOX o memoria asociativa y
las maquinas estocásticas de Botzmann y Cauchy.
Entre las redes neuronales monocapa, existen algunas que permiten que las neuronas tengan
conexiones a si mismas y se denominan autorecurrentes.
Las redes monocapa han sido ampliamente utilizada en circuitos eléctricos ya que debido a su topología, son
adecuadas para ser implementadas mediante hardware, usando matrices de diodos que representan las
conexiones de las neuronas
Redes Multicapa
El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal
manera que tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la
principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa
puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de la
capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona
de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1".
Redes Neuronales naturales o Neurobilogicas
Una neurona biológica es una célula especializada en procesar información. Está compuesta por el
cuerpo de la célula (soma) y dos tipos de ramificaciones: el axón y las dendritas. La neurona recibe
las señales (impulsos) de otras neuronas a través de sus dendritas y transmite señales generadas por
el cuerpo de la célula a través del axón.
Maquinas Inteligentes
Por mucho tiempo se considero inteleligentea una maquina por la capacidad que se les programo
para resolver problemas que antes solo un ser humano podia pero estas maquinas estaban lejos de
ser consideradas inteligentes este concepto comenzo a utilizarse desde el Siglo XIX, eran maquinas
construidas para un solo proposito.
Fue hasta en 1943 cuando comenzaron a desarrollar las redes neuronales aunque sus funciones eran
booleanas. En 1960 los progresos que se habian previstos no se alcanzo por lo que el proyecto se
estanco hasta en 1980 cuando ya se contaban con equipos mas poderosos que el de los sesenta.
Hoy en día las redes neurales se encuentran en diversas aplicaciones. El equipo computacional
que se tiene en la actualidad sigue siendo una restricción al modelaje de estas redes, ya que en
realidad un cerebro de humano tiene entre 10 10 y 10 11 neuronas.
Sistema Electrico Neuronal
El análisis del comportamiento está guiado a los eventos eléctricos o cambios de potenciales entre
el
interior de la neurona y el exterior.
El interior de la membrana de una neurona tiene un potencial negativo conforme al exterior de la
membrana. De igual manera, el interior de la membrana tiene una alta concentración de iones K 1 y
baja concentración de iones Na 1 , mientras que en el exterior de la membrana es al revés. La alta
concentración de K 1 se debe a que como el ion tiene una carga positiva, se siente atraído por la
carga negativa del interior
de la membrana. La baja concentración de sodio se debe a dos cosas: primero que la membrana es
80 veces más permeable al potasio que al sodio, y segundo porque en el interior de la neurona se
encuentra una bomba de potasio la cual produce energía cada vez que saca un ion de sodio y mete
uno de potasio.
Hay que notar que el equilibrio conductivo de los iones de potasio en el axón está por debajo del
umbral de activación de la neurona, y que el equilibrio conductivo del sodio está muy por arriba del
umbral. El potencial de membrana cuando se encuentra en reposo es de 260mV genéricamente.
Una sinapsis tiene dos lados: el presináptico (axón) y el postsináptico (dendrita normalmente).
Cuando un potencial de activación llega a la sinapsis hay un retardo de alrededor de 2 ms. Esto se
debe a los dos procesos de difusión que se llevan a cabo en la sinapsis. Primero iones de calcio (Ca
21 ) entran al bulbo-presináptico para favorecer que la vesículas del bulbo liberen
neurotransmisores. Después las vesículas se funden en la membrana presináptica liberando los
neurotransmisores en la hendidura sináptica (el espacio entre los dos tejidos), y éstos cuando llegan
a la dendrita causan un cambio de voltaje o de conductancia de ciertos iones. El impulso
postsináptico (PPS) es inhibitorio (PPSI) o excitador (PPSE) dependiendo de qué iones sean
cambiados. Una sola neurona postsináptica puede tener varios miles de sinapsis en ella.
Ruido
Desarrolladas por Pitts y McCulloch, son neuronas que aceptan por valores de entrada uno o cero y
tienen un umbral de activación de uno o de dos, formando así en el primer caso un OR lógico y en
el segundo un AND lógico. La integración de los PPS es totalmente lineal. En su tiempo eran lo más
aproximado a una neurona, pero hoy se sabe que esta representación de proposiciones lógicas no es
del todo correcta.
La Neurona Generica
Las RNA se definen como sistemas de mapeos no lineales cuya estructura se basa en principios
observados en los sistemas nerviosos de humanos y animales. Constan de un número grande de
procesadores simples ligados por conexiones con pesos. Las unidades de procesamiento se
denominan neuronas.
Cada unidad recibe entradas de otros nodos y genera una salida simple escalar que depende de la in-
formación local disponible, guardada internamente o que llega a través de las conexiones con pesos.
Pueden realizarse muchas funciones complejas dependiendo de las conexiones.
Las neuronas artificiales simples fueron introducidas por McCulloch y Pitts en 1943. Una red
neuronal se caracteriza por los siguientes elementos:
Dos de las topologías más usadas, de acuerdo con las diferencias en la manera de realizar las
conexiones, son:
1. Redes de propagación hacia delante (feed-foward): el fl ujo de información de las entradas a
las salidas es exclusivamente hacia delante, extendiéndose por capas múltiples de unidades,
pero no hay ninguna conexión de retroalimentación.
2. Redes recurrentes: contienen conexiones de retroalimentación, lo que puede derivarse en un
proceso de evolución hacia un estado estable en el que no haya cambios en el estado de
activación de las neuronas.
Una RNA consta de un conjunto de elementos de procesamiento conectados entre sí y entre los que
se envían información a través de conexiones.
Los elementos básicos de una RNA son:
• Conjuntos de unidades de procesamiento (neuronas).
• Conexiones entre unidades (asociado a cada conexión un peso o valor).
• Funciones de salida o activación para cada unidad de procesamiento.
• El modelo de la neurona y la arquitectura de la red describen cómo esta última transforma
sus entradas en las salidas. Los elementos individuales de cálculo que forman la mayoría de
los modelos de sistemas neurales artificiales, se conocen como neuronas artificiales.
Se denomina entrenamiento al proceso de confi guración de una red neuronal para que las entradas
produzcan las salidas deseadas a través del fortalecimiento de las conexiones. Una forma de llevar
esto a cabo es a partir del establecimiento de pesos conocidos con anterioridad, y otro método
implica el uso de técnicas de retroalimentación y patrones de aprendizaje que cambian los pesos
hasta encontrar los adecuados.
Uno de los sistemas de entrenamiento mas utilizados es el ADALINE
Las redes ADALINE son estructuras de una capa con una función de escalón como no linealidad.
Adicionalmente, las entradas pueden ser de forma continua, mientras que en el perceptrón son
binarias.
De acuerdo con la lógica booleana existen operadores como AND, OR, XOR y NOT donde sólo el
operador XOR y XNOR son linealmente indivisibles. Al graficar en un plano cartesiano se puede
ver la operación sobre dos operandos booleanos y sus salidas, donde se aprecia claramente que una
línea recta no podría clasifi car en dos conjuntos la salida del operador, con lo cual resulta imposible
para un perceptrón simple realizar dicho aprendizaje.
En este trabajo se presentan dos opciones para resolver este problema, al generar un perceptrón de
dos capas cuyo aprendizaje fue hecho elemento por elemento para llegar a una clasificación tanto
funcional como gráfi ca del comportamiento del XOR.