Вы находитесь на странице: 1из 4

Historia de las Redes Neuronales La era moderna de las redes neuronales se cree que comenz en 1943 gracias a McCullough

y Pitts, quienes describieron el clculo lgico de las redes neuronales y perfilaron el primer mdulo formal de una neurona elemental. En la dcada de los cincuenta, Minsky comienza a construir la primera neurocomputadora (basada en modelos de redes neuronales que imitan al cerebro). En 1962, Frank Rosenblatt presenta los resultados de una mquina a la que denomin "Perceptrn", la cual reproduca una estructura neuronal muy simplificada, capaz de aprender a reconocer y clasificar determinadas figuras. En la misma dcada, Minsky y Pappert (autoridades de la IA clsica) publicaron un libro en el que se ponan de manifiesto las limitaciones de los perceptrones de una capa. Esto har que se pierda inters en el campo de las redes neuronales hasta la dcada de los 80, en que el estudio de nuevas arquitecturas de redes y la mayor potencia de los ordenadores permiten el diseo de redes muy eficientes en tareas en las que otros procedimientos de tipo simblico encuentran dificultades. As, en 1982 J. Hopfield describe las "redes de Hopfield" en las que se utilizan funciones de energa para entender las redes dinmicas. Cohen y Grossberg desarrollan en el 83 el principio de la memoria direccional. En 1986 Rumulhart, Hunton y Williams redescubren el algorismo de "back-propagation" (desarrollado en 1974 por Paul Werbor) para el aprendizaje de redes neuronales. Por estas fechas, y gracias a las nuevas tecnologas de fabricacin de microchips, comienzan a construirse redes neuronales implementadas en silicio (mucho ms rpidas que las de software). Actualmente, el uso de redes neuronales se ha extendido bastante en el mercado de software domstico, dejando de estar restringidas a los entornos de inve Concepto y definiciones Las redes neuronales son un elemento importante de las denominadas tecnologas de Inteligencia Artificial (IA). La IA es "la disciplina cientfica y tcnica que se ocupa del estudio de las ideas que permiten ser inteligentes a los ordenadores" (definicin de H. Winston). Otra posible definicin de la IA sera: rama de la computacin que se encarga, entre otras cosas, de los problemas de percepcin, razonamiento y aprendizaje en relacin con sistemas artificiales, y que tiene como reas de investigacin a los sistemas expertos y de conocimiento, la robtica, los lenguajes naturales y las redes neuronales. Y a pesar de que el objetivo final de la IA, dotar de autentica inteligencia a las mquinas, queda todava muy lejos (e incluso hay autores que defienden que esto nunca ser posible),

la ciencia de la Inteligencia Artificial ha generado numerosas herramientas prcticas, entre las que se encuentran las redes neuronales. Las redes neuronales, tambin llamadas "redes de neuronas artificiales", son modelos bastante simplificados de las redes de neuronas que forman el cerebro. Y, al igual que este, intentan "aprender" a partir de los datos que se le suministran. As, las principales caractersticas que diferencian a las redes neuronales de otras tecnologas de IA son:
y

Su capacidad de aprendizaje a partir de la experiencia (entrenamiento). Normalmente, para la elaboracin de un programa informtico es necesario unestudio detallado de la tarea a realizar para despus codificarla en un lenguaje de programacin. Pero, las redes neuronales pueden ser entrenadas para realizar una determinada tarea sin necesidad de un estudiar esta a fondo ni programarla usando un lenguaje de programacin. Adems; las redes neuronales pueden volver a entrenarse para ajustarse a nuevas necesidades de la tarea que realizan, sin tenerse que reescribir o revisar el cdigo (cosa frecuente en programas tradicionales). Su velocidad de respuesta una vez concluido el entrenamiento. Se comportan tambin en este caso de manera similar a como lo hace el cerebro: los seres humanos no necesitamos pensar mucho para identificar un objeto, una palabra,... una vez hemos aprendido a hacerlo. Su robustez, en el sentido de que el conocimiento adquirido se encuentra repartido por toda la red, de forma que si se lesiona una parte se continan generando cierto numero de respuestas correctas (en este caso tambin hay cierta analoga con los cerebros parcialmente daados).

Partes de una red neuronal

ENTRADAS. Estas capas reciben la informacin desde el exterior como son: Entradas Wj a la neurona. PESOS Normalmente una neurona recibe muchas y mltiples entradas simultneas. Cada entrada tiene su propio peso relativo el cual proporciona la importancia de la entrada dentro de la funcin de agregacin de la neurona. Estos pesos realizan la misma funcin que realizan las fuerzas sinpticas de las neuronas biolgicas. En ambos casos, algunas entradas son ms importantes que otras de manera que tienen mayor efecto sobre el procesamiento de la neurona al combinarse para producir la respuesta neuronal. Los pesos son coeficientes que pueden adaptarse dentro de la red que determinan la intensidad de la seal de entrada registrada por la neurona artificial. Ellos son la medida de la fuerza de una conexin de entrada. Estas fuerzas pueden ser modificadas en respuesta de los ejemplos de entrenamiento de acuerdo a la topologa especfica o debido a las reglas de entrenamiento. SALIDAS: Cada elemento de procesamiento tiene permitido una nica salida yi(t) que puede estar asociada con un nmero elevado de otras neuronas. Normalmente, la salida es directamente equivalente al valor resultante de la funcin de activacin. yi(t)=Fi(ai(t))=ai(t) Algunas topologas de redes neuronales, sin embargo, modifican el valor de la funcin de transferencia para incorporar un factor de competitividad entre neuronas que sean vecinas. Las neuronas tienen permitidas competir entre ellas, inhibiendo a otras neuronas a menos que tengan una gran fortaleza. En el siguiente post se describiran las funciones que forman parte de los Elementos de la Red Neuronal: La Funcin de Propagacin, Funcin de Activacin y la Funcin de Salida.

Definicin de neurona
La neurona de McCulloch-Pitts es una unidad de clculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial. El resultado del clculo en una neurona consiste en realizar una suma ponderada de las entradas, seguida de la aplicacin de una funcin no-lineal, como se ilustra en la siguiente figura

Que es sinopsis
Una sinopsis es una recopilacin de datos acerca de los puntos de una obra o tema en particular, para otorgar al lector o espectador un extracto de los aspectos ms relevantes del asunto y formndole una visin general de una manera resumida y adecuada. En la sinopsis no se incluyen detalles del desenlace de la obra, pues se trata de que el lector se interese en la obra de la que se escribe (en el caso de la realizacin de un guion de cine la sinopsis debe contener planteamiento, desarrollo y desenlace del conflicto ya que se trata de un resumen rpido de toda la obra para recorrerla de un vistazo). Est compuesta por los siguientes elementos: 1. Concepto; que es la parte medular del texto o cinta; el resumen del contenido en la obra. 2. Informacin acerca de la misma; aqu se describen datos como el autor, la editorial, ao, director, distribuidora, etc. y por ltimo un punto de vista. Se puede definir como:  Representacin grfica que muestra un tema o grupo de temas, objetos o situaciones interrelacionados, con esto se facilita su contemplacin y evaluacin conjunta.   La exposicin general de una creacin por medio de sus principales puntos. Resumen de una obra o cuestin.

Вам также может понравиться