Академический Документы
Профессиональный Документы
Культура Документы
** Instituto Tecnológico Autónomo de México NSL (Neural Simulation Language) es un sistema de simulación para
Departamento Académico de el desarrollo de redes neuronales biológicas y artificiales. NSL permi-
Computación te la simulación de modelos con diferentes niveles de detalle neuro-
Río Hondo No. 1, San Ángel, México, D.F. nal, desde los más sencillos que constan de pocas neuronas hasta
Profesor de Tiempo Completo los más complejos compuestos de millones de neuronas. NSL incor-
Doctorado en Ciencias de la pora un rico ambiente de modelado y simulación que integra un
Computación
lenguaje compilado y otro interpretado por razones de eficiencia e
University of Southern California, Los
Angeles, CA, USA
interacción, además de bibliotecas numéricas, interfaces gráficas y
56284000 ext 3614 5616221 herramientas de visualización. El sistema es orientado a objetos, ofre-
alfredo@itam.mx ciendo un ambiente de simulación para usuarios con poca expe-
http://cannes.itam.mx riencia de programación, al igual que para aquellos más experi-
Redes Neuronales, Agentes Autónomos, mentados. NSL fue desarrollado originalmente hace 10 años
Sistemas de Simulación habiendo sido utilizado durante esta última década para la investi-
gación y docencia, dando lugar al desarrollo de numerosos mode-
Artículo recibido: 1/junio/2001
los neuronales en diversos laboratorios en el mundo. Actualmente
Artículo aceptado: 25/julio/2001
se cuenta con NSL3.0, la tercera generación del sistema bajo dife-
rentes plataformas de procesamiento y en base a programación en
C++ y Java.
Palabras clave:
Redes Neuronales, Modelado, Simulación, Biológico, Artificial, NSL
ABSTRA CT
ABSTRACT
*
Este trabajo está apoyado por el NSF en EEUU (proyecto #IRI-9505864) y CONACyT en México (proyecto #546500-5-C018-A),
además del proyecto REDII de CONACyT (#DAJ J002-222-98) y la Asociación Mexicana de Cultura, A.C.
Weitzenfeld A. NSL Lenguaje de Simulación de Redes Neuronales 47
Key words:
edigraphic.com
Neural Networks, Modeling, Simulation, Biological, Artificial, NSL
En NSL dos estructuras de datos son requeridas La descripción de las conexiones de entrada a
para representar una neurona en el modelo de in- la neurona vp en NSL es dada por una ecuación
tegrador con fugas. Una estructura de datos re- de la siguiente forma
presenta el potencial de membrana mp y la otra
la tasa de disparo mf. Para estas estructuras se sv = w0uf0 + w1uf1 + ...
puede utilizar diferentes tipos primitivos, como
Float, Double o Int. Por ejemplo, utilizando tipos CAPAS Y MÁSCARAS
Double, las estructuras serían:
Cuando se modela un gran número de neuro-
NslDouble mp; nas se vuelve extremadamente tedioso nombrar
NslDouble mf;
a cada una de ellas por separado. Además, en
el cerebro usualmente encontramos redes neu-
La dinámica del potencial de membrana mp
ronales estructuradas en capas de neuronas ho-
se representa mediante la ecuación diferencial
mogéneas de dos dimensiones, con patrones de
nslDiff(mp,τm,f(sm,mp)); interconexión regulares entre las capas. Por ta-
les motivos, NSL extiende la abstracción de la
donde nslDiff corresponde a una ecuación dife- neurona básica a capas de neuronas y las co-
rencial de primer orden con constante de integra- nexiones sencillas a máscaras de conexión, res-
ción τm y f(s m,m) corresponde a la función de en- pectivamente.
trada igual a “-m + sm” en el modelo de integrador Una interconexión entre neuronas puede ser pro-
con fugas cesada computando una transformación al estilo de
50 Revista Mexicana de Ingeniería Biomédica • volumen XXII • número 2 • septiembre 2001
sv = w@uf
En lugar de describir esta ecuación mediante aunque en este ejemplo la máscara de pesos w
múltiples expresiones individuales, NSL utiliza el ope- es de un sólo elemento.
rador "@" para lograr una única expresión de ma-
nera muy concisa, SIMULACIÓN
su 0 su 1 sun- 1
sui
........ ........ ........ ........
up 0 up1 ........
up i ........ upn-1
ufi i w
uf0 uf1 ufn -1
wi
w1
w0 wn -1
sv
i
u j
vp
vf
v j
Figura 5. La neurona vp recibe entradas de las neuronas
up 1 ,...,up n , correspondientes a sus tasas de disparo,
Figura 6a
6a.. w representa la conexión o máscara de con-
uf1,...,uf n, multiplicadas por los pesos w1,...,w n, respectiva-
volución entre las capas u y v correspondientes a la ecua-
mente.
ción sv=w@uf. En este ejemplo w es una máscara de
3x3 que se superpone sobre una ventana en u del mis-
mo tamaño, para obtener un valor de un elemento en v
*
El término “convolución espacial” se utiliza exclusivamente (en este ejemplo las capas u y v consisten de 8x8 neuro-
por razones matemáticas. nas cada una).
Weitzenfeld A. NSL Lenguaje de Simulación de Redes Neuronales 51
s0 s1 si sn-1
MODELADO DEL SELECTOR MÁXIMO
sui sun-1
su0 su1
up0 up1 upi upn-1
........ ........ La descripción del modelo completo incluye un
ufi wun-1 módulo MaxSelector un módulo principal MaxSe-
uf 0 wu1 uf1 uf n-1
wu 0
w0
w1
wui
wi
wn-1
edigraphic.com
lectorModel. En MaxSelector se describe la diná-
mica de la red neuronal.
sv
nslModel MaxSelectorModel
{
52 Revista Mexicana de Ingeniería Biomédica • volumen XXII • número 2 • septiembre 2001
AGRADECIMIENTOS
i0:0 i1:9 imax:10 t0:0.00 t1:20.00 Se agradece en especial a todos los tesistas del
laboratorio CANNES del ITAM que han apoyado y
Figura 7
7. La salida del modelo Selector Máximo, mues- siguen apoyando el desarrollo de estos sistemas,
tra la capa de entrada s, en un gráfico espacial, y el
en particular Salvador Mármol, Claudia Calderas,
potencial de membrana de la capa up, en un gráfico
temporal. Roberto Olivares, Oscar Peguero, Sebastián Gutié-
rrez, Francisco Peniche y Francisco Otero. Asimis-
mo se agradece al grupo dirigido por Michael Ar-
3
Para mayor información sobre estos proyectos favor de
bib y Amanda Alexander en la Universidad del Sur
accesar el servidor Web de CANNES: http:// de California con quienes se mantiene una estre-
cannes.rhon.itam.mx. cha colaboración en el desarrollo de NSL.
Weitzenfeld A. NSL Lenguaje de Simulación de Redes Neuronales 53
BIBLIOGRAFÍA 17. Teeters JL, Arbib MA, Corbacho F, & Lee HB. Quantitative
modeling of responses of anuran retina: Stimulus shape
1. Alexander A, Arbib MA, Weitzenfeld A. 1999, Web Simula- and size dependency. Vision Research 1993; 33: 2361-
tion of Brain Models. International Conference on Web- 2379.
Based Modeling and Simulation, 1999; 31(3): 29-33, Enero 18. Wegner P. Concepts and Paradigms of Object-Oriented Pro-
17-20, San Francisco, CA.
2. Amari S, Arbib MA. Competition and Cooperation in Neu-
edigraphic.com
gramming, OOPS Messenger, 1990; 1(1): 7-87.
19. Weitzenfeld A. A Unified Computational Model for Sche-
ral Nets, Systems Neuroscience (J. Metzler, ed.), 1977: 119- mas and Neural Networks in Concurrent Object-Orien-
165, Academic Press. ted Programming, Tesis Doctoral, Computer Science
3. Arbib MA. The Metaphorical Brain 2: Neural Networks and Dept., University of Southern California, Los Angeles.
Beyond, Wiley. 1989. 1992.
4. Arbib MA. Schema Theor y, in the Encyclopedia of Artificial 20. Weitzenfeld A, Arbib M. A Concurrent Object-Oriented Fra-
Intelligence, 2da Edition, Editor Stuart Shapiro, 1992; 2: mework for the Simulation of Neural Networks, ECOOP/
1427-1443, Wiley. OOPSLA ’90 Workshop on Object-Based Concurrent Progra-
5. Arkin RC, Cervantes-Perez F, Weitzenfeld A. Ecological Ro- mming, OOPS Messenger, 1991; 2(2): 120-124.
botics: A Schema-Theoretic Approach, en Intelligent Ro- 21. Weitzenfeld A. ASL: Hierarchy, Composition, Heterogenei-
bots: Sensing, Modelling and Planning, Eds. RC Bolles, H ty, and Multi-Granularity in Concurrent Object-Oriented Pro-
Bunke y H Noltemeier World Scientific. 1997: 377-393. gramming, Workshop on Neural Architectures and Distribu-
6. De Schutter E. A Consumer Guide to Neuronal Modeling ted AI: From Schema Assemblages to Neural Networks
Software, en Trends in Neuroscience, 1992; 15(11): 462- 1993: 19-20, Center for Neural Engineering, USC, Los An-
464. geles, CA.
7. Didday RL. A Model of Visuomotor Mechanisms in the Frog 22. Weitzenfeld A, Arkin RC, Cervantes-Perez F, Olivares R, Cor-
Optic Tectum, Math. Biosci 1976; 30: 169-180. bacho F. A Neural Schema System Architecture for Auto-
8. Dominey P, Arbib MA. A Cortico-Subcortical Model for Ge- nomous Robots, Proc. of 1998 International Symposium on
neration of Spatially Accurate Sequential Saccades, Ce- Robotics and Automation, Diciembre 1998: 12-14, Saltillo,
rebral Cortex, Marzo/Abril 1992; 2: 153-175. Coahuila, México.
9. Hodgkin AL, Huxley AF. A Quantitative Description of Mem- 23. Weitzenfeld A, Arkin RC, Cervantes-Perez F, Peniche JF. Vi-
brane Current and its Application to Conduction and Exci- sualization of Multi-level Neural-based Robotic Systems, 2nd
tation in Nerve, J. Physiol. London, 1952; 117: 500-544.
Conference on Visual Computing, Mexico, DF, Mexico.
10. Hopfield J. Neural Networks and Physical Systems with Emer-
1998: 20-24.
gent Collective Computational Abilities, Proc. Of the Na-
24. Weitzenfeld A, Arbib MA. NSL Neural Simulation Language,
tional Academy of Sciences 1982; 79: 2554-2558.
en Neural Network Simulation Environments, Ed. J. Skrzy-
11. House D. Depth Perception in Frogs and Toads: A study in
pek, Kluwer 1994.
Neural Computing, Lecture Notes in Biomathematics 80,
Springer-Verlag. 1985. 25. Weitzenfeld A, Arbib M, Cervantes F, Rudomin P, Alexander
12. McCulloch WS, Pitts WH. A Logical Calculus of the Ideas A. Multi-level Simulation Methodology: A Computational
Immanent in Nervous Activities, Bull. Math. Biophys 1943; and Experimental Approach to Neural Systems, NSF De-
5: 15-133. sign and Manufacturing Grantees Conference, Monterrey,
13. Murre J. Neurosimulators, e Handbook of Brain Theor y and Mexico, 1998: 651A-652A.
Neural Networks, Ed. Michael Arbib, MIT Press 1995. 26. Weitzenfeld A, Alexander A, Arbib MA. NSL - Neural Simula-
14. Ousterhout J. Tcl and the Tk Toolkit, Addison-Wesley. 1994. tion Language: System and Applications, MIT Press (en pre-
15. Rall W. Branching Dendritic Trees and Motoneuron Mem- paración) 2001.
brane Resistivity. Exp Neurol 1959; 2: 503-532. 27. Werbos P. Beyond Regression, New Tools for Prediction and
16. Rumelhart DE, Hinton GE, Williams RJ. Learning internal re- Analysis in the Behavioral Sciences, Tesis Doctoral, Harvard
presentations by error propagation, in Parallel Distributed University, Boston, MA. 1974.
Processing: Explorations in the Microstructure of Cognition 28. Wiskott L, Fellous JM, Krüger N, von der Malsburg C. Face
(D.E. Rumelhart, J.L. McClelland, and PDP Research Group, recognition by elastic bunch graph matching, IEEE Tran-
Eds.), vol. 1, Foundations, Cambridge, MA: MIT Press, 1986; sactions on Pattern Analysis and Machine Intelligence
318-362. 1997; 19(7): 775-779.