Вы находитесь на странице: 1из 10

CAPITULO 2

FUNDAMENTO DE REDES NEURONALES

INTRODUCCION

Si tuviéramos que definir la principal característica que nos separa del resto de
animales seguramente, la gran mayoría de nosotros, responderíamos la capacidad de
raciocinio. Esta capacidad nos ha permitido desarrollar una tecnología propia de tal
que en estos momentos, esta tecnología se orienta a descubrir su origen ¿Cómo
funciona el cerebro? ¿Se pueden construir modelos artificiales que lo emulen? ¿Se
pueden desarrollar maquinas inteligentes?. Todas estas preguntas han conducido a un
desarrollo exponencial de una campo multidisciplinar del conocimiento conocido como
Inteligencia Artificial (I. A.).

El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El


ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de
reconocer el rostro de una persona resulta una tarea relativamente sencilla para el
hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es
tarea costosa para un experto contable y una sencilla rutina para un ordenador básico.

La capacidad del cerebro humano de pensar, recordar y resolver problemas ha


inspirado a muchos científicos intentar o procurar modelar en el ordenador el
funcionamiento del cerebro humano.

Los profesionales de diferentes campos como la ingeniería, filosofía, fisiología y


psicología han unido sus esfuerzos debido al potencial que ofrece esta tecnología y
están encontrando diferentes aplicaciones en sus respectivas profesiones.

El cerebro es un procesador de información con unas características muy notables:


es capaz de procesar a gran velocidad grandes cantidades de información
procedentes de los sentidos, combinarla o compararla con la información almacenada
y dar respuestas adecuadas incluso en situaciones nuevas.

Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la
actividad de neuronas.

Los desarrollos actuales de los científicos se dirigen al estudio de las capacidades


humanas como una fuente de nuevas ideas para el diseño de las nuevas máquinas. Así,
la inteligencia artificial es un intento por descubrir y describir aspectos de la
inteligencia humana que pueden ser simulados mediante máquinas.
CAPITULO 2

NEURONA BIOLOGICA

Aunque todos los cerebros de una especie animal son fundamentalmente iguales, su
estructura varía ligeramente de un individuo a otro. Así mismo, aunque todas las
neuronas son fundamentalmente iguales, su estructura varía de un ejemplar a otro.
En el cerebro humano, por ejemplo, hay más de 10.000.000.000 de neuronas, tantas
como árboles individuales hay en una gran selva como la del Amazonas, con tantos
tipos y tamaños distintos como especies diferentes de plantas hay en un pequeño
bosque. No hay dos neuronas exactamente iguales, así como no hay dos árboles
idénticos, aunque sean de la misma especie.

Las neuronas son células altamente especializadas que toman su forma y estructura
precisa del medio ambiente que las rodea. Es decir, de la composición química del
medio fisiológico que las alimenta, de las hormonas que las afectan y de los campos
eléctricos y gradientes químicos que experimentaron durante su crecimiento y
maduración. En particular, las neuronas son fuertemente afectadas por la naturaleza
y distribución en el tiempo de los potenciales eléctricos y neurotransmisores
producidos en su cercanía como resultado de la actividad de otras neuronas.

Las neuronas se clasifican en cuatro grandes grupos: sensoriales, motoras, de


comunicación e interneuronas.

Los dos primeros grupos se especializan en transmitir señales entre regiones


distantes del cuerpo (por ejemplo, desde los órganos de los sentidos hacia el cerebro
o desde éste hacia los músculos)

Las neuronas de comunicación conectan entre sí áreas del cerebro que pueden incluso
estar separadas por decenas de centímetros, pero no abandonan jamás la
circunscripción del tejido.

Las interneuronas son neuronas de comunicación que limitan su alcance a unas pocas
décimas de milímetro a su alrededor, entrando en contacto tan sólo con sus vecinas
inmediatas.

A pesar de las marcadas diferencias morfológicas existentes entre los diversos tipos
de neuronas, todas estas células están compuestas por un cuerpo celular o soma, las
dendritas con sus importantísimas “espículas sinápticas”, el axón con un
recubrimiento opcional o “vaina de mielina” y las ramificaciones terminales.
CAPITULO 2

El soma constituye la parte central y más voluminosa de la neurona. Su forma es


variada (en algunas células es esférico, piramidal o de estrella en otras) pero
frecuentemente es irregular. Dentro del soma y generalmente en el centro, se halla
el núcleo, que dirige las funciones metabólicas de la célula con su información
genética.

Las dendritas son estructuras filamentosas que se desprenden del soma de manera
similar a como las ramas o raíces de los árboles se desprenden del tronco. Su única
función es la de hacer contacto (sinapsis) con otras neuronas

El axón es un largo tubo que se desprende del soma. Su propósito es el de transportar


las señales eléctricas producidas por la neurona desde el soma, donde se originan,
hasta los botones terminales del axón, donde se transmiten a otras neuronas o células
efectoras (como las musculares)

Las células de Schwann son células que acompañan a la neurona durante su crecimiento
y desarrollo de su función, cumplen la función de aislante del axón provocando que
una señal eléctrica lo recorra sin perder la intensidad

La mielina se dispone en varias capas en torno al axón de las neuronas, originando la


llamada vaina de mielina. Está cubierta no es completamente continua, sino que entre
los segmentos mielinizados quedan regiones desnudas de los axones llamados nódulos
CAPITULO 2

de Ranvier donde se acumulan los canales iónicos. Dado que la mielina es un aislante
electroquímico, aumenta la resistencia de la membrana axónica y, por tanto, la
velocidad de conducción del impulso nervioso de forma que los potenciales de acción
pasan de un nódulo de Ranvier a otro. Esto se conoce como conducción saltatoria del
impulso nervioso y permite una transmisión más rápida del potencial de acción.

Las ramificaciones terminales son el punto de conexión con otra neurona, células
musculares o de glándulas

Emulando entonces el funcionamiento del cerebro construiremos redes neuronales


artificiales interconectando elementos de procesamiento más básicos como las
neuronas.

Características Sistema Nervioso Central (SNC):

• Inclinación a adquirir conocimiento desde la experiencia.


• Conocimiento almacenado en conexiones sinápticas.
• Gran plasticidad neuronal.
• Comportamiento altamente no lineal.
• Alta tolerancia a fallos.
• Apto para reconocimiento, percepción y control.

El cerebro presenta las siguientes ventajas que son deseables para los sistemas
computacionales:

• Gran velocidad de procesamiento.


• Tratamiento de grandes cantidad de informaciones provenientes de los
sentidos y de la memoria almacenada.
• Se adapta a nuevos ambientes por aprendizaje.
• Es robusto y tolerante a fallas.
• Es compacto y consume poca energía.
• Es altamente paralelo.
• Capacidad de aprendizaje.

RED NEURONAL ARTIFICIAL (R.N.A.)

No existe una definición general de red neuronal artificial, existiendo diferentes


según el texto o articulo consultado. Así nos encontramos con las siguientes
definiciones:
CAPITULO 2

Una red neuronal es un modelo computacional, paralelo, compuesto de unidades


procesadoras adaptivas con una alta interconexión entre ellas. (Hassoun 95).

Sistemas de procesado de la información que hacer uso de algunos de los principios


que organizan la estructura del cerebro humano. (Lin 96).

Modelos matemáticos desarrollados para emular el cerebro humano. (Chen 98).

Sistema de procesado de la información que tiene características de funcionamiento


comunes con las redes neuronales biológicas. (Fausett 94).

Sistema caracterizado por una red adaptiva combinada con técnicas de procesado
paralelo de la información. (Kung 93).

Desde la perspectiva del reconocimiento de patrones las redes neuronales son una
extensión de métodos clásicos estadísticos. (Bishop 96).

Las definiciones expuestas son un botón de muestra pues cada autor las define de
una manera, para ser que en todas ellas aparece el componente de simulación del
comportamiento biológico, que no todas ellas emulan una determinada estructura
neuronal. Lo que sí tienen en común estos elementos con el cerebro humano es la
distribución de las operaciones a realizar en una serie de elementos básicos que por
analogía se conocen como neuronas.

Es importante mencionar que las Redes Neuronales Artificiales son un método que
permiten resolver problemas, de forma individual o combinada con otros métodos,
para aquellas tareas de clasificación, identificación, diagnóstico en las que el balance
datos/conocimiento se inclina hacia los datos.

Características de las R.N.A.

Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están


inspiradas en las redes neuronales biológicas del cerebro humano. Están constituidas
por elementos que se comportan de forma similar a la neurona biológica en sus
funciones más comunes. Estos elementos están organizados de una forma parecida a
la que presenta el cerebro humano.

Las ANN al margen de "parecerse" al cerebro presentan una serie de características


propias del cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de
ejemplos previos a ejemplos nuevos y abstraen las características principales de una
serie de datos.
CAPITULO 2

 Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio
o experiencia. Las ANN pueden cambiar su comportamiento en función del
entorno. Se les muestra un conjunto de entradas y ellas mismas se ajustan para
producir unas salidas consistentes. Una red neuronal es una integración de
diversos sistemas de aprendizaje, es por ello que tienen la capacidad de
aprender a través de un entrenamiento previo.
 Generalizar: extender o ampliar una cosa. Las ANN generalizan
automáticamente debido a su propia estructura y naturaleza. Estas redes
pueden ofrecer, dentro de un margen, respuestas correctas a entradas que
presentan pequeñas variaciones debido a los efectos de ruido o distorsión.
 Abstraer: aislar mentalmente o considerar por separado las cualidades de un
objeto. Algunas ANN son capaces de abstraer la esencia de un conjunto de
entradas que aparentemente no presentan aspectos comunes o relativos.
 Topología de red: Permite determinar la capacidad representativa de como una
cantidad de neuronas están distribuidos en capas y distribuidas entre sí. En
donde la topología de red se basa en el problema a resolver.
 Tipo de entrenamiento: Una RNA presenta dos tipos de entrenamiento, una
que durante la etapa de aprendizaje la red se entrena para que los pesos
sinápticos se adecuen a la red. La segunda es una etapa de ejecución en donde
la red ya pasa ser operativa cuya red toma un valor de funcionamiento real.

Modelo Neurona Artificial

En todo modelo artificial de neurona se tienen cuatro elementos básicos:

1. Un conjunto de conexiones, pesos (Wi) o sinapsis que determinan el


comportamiento de la neurona. Estas conexiones pueden ser excitadoras
(presentan un signo positivo), o inhibidoras (conexiones negativas).
2. Un sumador que se encarga de sumar todas las entradas multiplicadas por las
respectivas sinapsis.
3. Una función de activación no lineal para limitar la amplitud de la salida de la
neurona.
4. Un umbral exterior que determina el umbral por encima del cual la neurona se
activa.

Esquemáticamente, una neurona artificial se representa de la siguiente forma:


CAPITULO 2

Matemáticamente las operaciones a realizar serian:

Donde ρ es una función no lineal conocida como función de activación. Normalmente


se asocia el umbral a las salida Un mediante una entrada que vale -1 y un peso
adicional asociado.

Arquitecturas Neuronales
Según el número de capas

 Redes neuronales mono capas: Se corresponde con la red neuronal mas


sencilla ya que se tiene una capa de neuronas que proyectan las entradas a una
capa de neuronas de salida donde se realizan diferentes cálculos. La capa de
entrada, por no realizar ningún cálculo no se cuenta de ahí el nombre de redes
neuronales con una sola capa.
CAPITULO 2

 Redes Neuronales Multicapa: Es una generalización de la anterior existiendo


un conjunto de capas intermedias entre la entrada y la salida (capas ocultas)
este tipo de red puede estar total o parcialmente conectada.

Según el tipo de conexión

 Redes Neuronales no recurrentes: En esta red la propagación de las señales


se produce en un sentido solamente, no existiendo la posibilidad de
realimentaciones. Lógicamente estas estructuras no tienen memoria.
 Redes Neuronales recurrentes: Esta red viene caracterizada por la
existencia de lazos de realimentación. Estos lazos pueden ser entre neuronas
de diferentes capas, neuronas de la misma capa o más sencillamente entre una
misma neurona. Esta estructura recurrente la hace especialmente adecuada
para estudiar la dinámica de sistemas no lineales.
CAPITULO 2

Según el grado de conexión

 Redes Neuronales totalmente conectadas: En este caso todas las neuronas


de una capa se encuentran conectadas con las de la capa siguiente (redes no
recurrentes) o con las de la anterior (redes recurrentes).
 Redes Neuronales parcialmente conectadas: En este caso no se da la
conexión total entre neuronas de diferentes capas.

Métodos de aprendizaje

En una red neuronal es necesario definir un procedimiento por el cual las conexiones
del dispositivo varíen para proporcionar la salida deseada. Los métodos de
aprendizaje se pueden dividir en las siguientes categorías:

La primera gran división en los métodos de aprendizaje es entre algoritmos


supervisados y no supervisados. En los algoritmos no supervisados no se conoce la
señal que debe dar la red neuronal (señal deseada). La red en este caso se organiza
ella misma agrupando, según sus características las diferentes señales de entrada.
Estos sistemas proporcionan un método de clasificación de las diferentes entradas
mediante técnicas de agrupamiento.

El aprendizaje supervisado presenta a la red las salidas que debe proporcionar ante
las señales que se le presentan. Se observa la salida de la red se determina la
diferencia entre esta y la señal deseada. Posteriormente los pesos de la red son
modificados de acuerdo con el error cometido. Este aprendizaje admite dos
variantes: aprendizaje por refuerzo o aprendizaje por corrección.
CAPITULO 2

En el aprendizaje por refuerzo solo conocemos si la salida de la red se corresponde


o no con la señal deseada es decir nuestra información es de tipo booleana (verdadero
o falso). En el aprendizaje por corrección conocemos la magnitud del error y está
determinada la magnitud en el cambio de los pesos.

Ventajas que ofrecen las redes neuronales.

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales


presentan un gran número de características semejantes a las del cerebro. Por
ejemplo, son capaces de aprender de la experiencia, de generalizar de casos
anteriores a nuevos casos, de abstraer características esenciales a partir de
entradas que representan información irrelevante, etc. Esto hace que ofrezcan
numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples áreas.
Entre las ventajas se incluyen:

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un


entrenamiento o en una experiencia inicial.

Auto-organización. Una red neuronal puede crear su propia organización o


representación de la información que recibe mediante una etapa de aprendizaje.

Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de


su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso
sufriendo un gran daño.

Operación en tiempo real. Los cómputos neuronales pueden ser realizados en paralelo;
para esto se diseñan y fabrican máquinas con hardware especial para obtener esta
capacidad.

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips


especializados para redes neuronales que mejoran su capacidad en ciertas tareas.
Ello facilitará la integración modular en los sistemas existentes.

Вам также может понравиться