Вы находитесь на странице: 1из 147

Modelos matematicos para el estudio de la

activaci on de la corteza cerebral


Juan Alberto Escamilla Reyna
1999
Introduccion
La modelacion matematica, en el area de las neurociencias, ha tenido
exito en los distintos niveles de organizacion del cerebro, baste recordar uno
de los exitos mas famosos, el logrado por los neurosiologos A. Hodgkin y A.
Huxley (H-H), que en el a no 1952 [57], construyeron un modelo matematico
para explicar la dinamica del potencial de membrana de una neurona, en
funcion de las corrientes ionicas subyacentes. El modelo se toma todava
como ejemplo para la elaboracion de modelos realistas de neuronas [21],
[99], [100].
El modelo de H-H consta de cuatro ecuaciones diferenciales no lineales
otros modelos constan de mas ecuaciones. El estudio matematico de estos
modelos es muy complejo y se ha abordado usando diversas herramientas
matematicas : metodos numericos, teora cualitativa de ecuaciones diferen-
ciales, teora de bifurcaciones, metodos de peque no parametro, etc. [16], [21],
[28], [97], [100].
Otros exitos famosos, son los logrados en el area de las redes neuronales,
desde el trabajo pionero de Mc Culloch-Pitts [80], en el cual se construye
una red neuronal, con neuronas articiales muy simplicadas, pero basada
en algunas propiedades de las neuronas reales, hasta los trabajos de Hopeld
[59], [60]. Los trabajos de Hopeld han sido muy importantes para el estudio
de la memoria asociativa.
Actualmente, el area de las redes neuronales es muy fructfera, se de-
sarrolla fundamentalmente en dos lneas de investigaci on: la primera, tiene
como objetivo construir redes neuronales que resuelvan problemas en diver-
sas areas, computacion, matematicas, etc., independientemente de que si
las propiedades de las neuronas y los parametros que intervienen en la red
tienen alguna relacion signicativa con las neuronas reales. La segunda, in-
tenta construir redes neuronales realistas, que ayuden a explicar fenomenos
siologicos reales. Para la primera lnea de investigaci on se pueden ver los
trabajos [10], [12], [43], para la segunda [24], [40], [41], [75].
En esta area de investigaci on tambien se presentan problemas
matematicos complejos que se han abordado con metodos numericos, ecua-
ciones diferenciales, teora de bifurcaciones y tecnicas de peque no parametro.
En el area de la electroencefalografa, se han elaborado modelos con-
siderando al cerebro como un medio conductor de la electricidad, y con
una aproximaci on cuasi-estatica, para tratar el problema de localizacion de
I
fuentes, para una distribucion de potencial en el cuero cabelludo. Este pro-
blema no tiene solucion unica y usualmente se agregan hipotesis, sugeridas
por la anatoma y siologa del cerebro, a las posibles fuentes que originan
la distribucion de potencial dada sobre el cuero cabelludo. Estos modelos
plantean problemas matematicos que se ubican en el area matematica de los
problemas inversos. Tambien se auxilian con los metodos matematicos de la
teora del potencial.
La principal limitante de los modelos de medio conductor cuasi-estaticos
es que no pueden informar sobre el origen siologico de los patrones tempo-
rales rtmicos observados en el electroencefalograma.
En cuanto al estudio dinamico de la actividad cortical y su relacion con la
dinamica de los electroencefalogramas (EEG), se han elaborado diversos mo-
delos. Estos se pueden clasicar, grosso modo, en modelos locales, modelos
globales y modelos locales-globales.
En los modelos locales se trata de explicar la dinamica de la actividad
cortical en funcion de lo que ocurre a nivel sinaptico [33], [34], [75], [76], [77],
[95]. En los modelos globales, se considera que la dinamica de la actividad
cortical se puede explicar usando propiedades macroscopicas de la propia
corteza [87], [88], [89], [90], [92] y en los modelos locales-globales, se mezclan
ambos niveles [64], [66], [68], [104], [105].
Entre los modelos globales, se encuentra el elaborado por Nu nez [89],
[92]. Es un modelo global lineal de interaccion neuronal que describe la
propagacion de ondas de frecuencias bajas en la corteza cerebral, sus resulta-
dos coinciden cualitativamente con datos experimentales relacionados con
el ritmo alfa y con algunos otros fenomenos electroencelogracos [89], [92].
Sin embargo, su modelo no incluye otros fenomenos siologicos, como los
correspondientes a los diversos estados del sue no.
El modelo relaciona la actividad sinaptica excitatoria e inhibitoria en
cada elemento de corteza x en el tiempo t, con el n umero de potenciales
de accion que se generan en los demas elementos de corteza en tiempos
anteriores, teniendo en cuenta las conexiones sinapticas y las velocidades de
propagacion de los potenciales de accion.
El objetivo de esta tesis es elaborar y estudiar modelos que describen la
dinamica de la actividad cortical, utilizando variables y parametros que se
puedan medir y as poder correlacionarlos con las mediciones reales de dicha
actividad. Los modelos que elaboramos desarrollan las ideas de Nu nez en al
II
menos dos direcciones: se introducen nuevos parametros y se toma en cuenta
la no homogeneidad de la corteza cerebral.
Ademas, el enfoque matematico usado ecuaciones diferenciales parciales
ordinarias, tecnicas de peque no parametro, etc. nos permitio estudiar mo-
delos no lineales de una manera menos complicada. Ver captulos 2 y 3 de
esta tesis.
La tesis fue dividida en tres captulos. En el captulo 1, se hace un re-
cuento breve sobre la estructura y funcionamiento del cerebro en sus distintos
niveles, los diversos metodos y tecnicas para obtener informacion y comen-
tarios sobre los diversos modelos matematicos que existen a nivel neurona,
redes y estructuras completas. En el captulo 2, describimos los fundamen-
tos anatomicos y siologicos de los modelos matematicos que construimos.
Analizamos dichos modelos y los comparamos con el modelo de Nu nez. En
el tercer captulo describimos los resultados fundamentales que obtuvimos.
III
Contenido
Captulo 1
El cerebro : su estructura, funciones y diferentes
formas de medir y modelar su actividad
1.1 El cerebro : un sistema complejo....................................................... 1
1.2 Algunas estructuras importantes del cerebro..................................... 2
1.3 La neurona y su siologa.................................................................. 4
1.4 Bases fsicas del potencial de reposo de la membrana y del potencial
de accion............................................................................................ 8
1.5 Tecnicas para obtener informacion del cerebro.................................. 12
1.6 Algunos modelos de estructuras del cerebro...................................... 19
1.7 Redes neuronales................................................................................ 22
1.8 Modelos de medio conductor.............................................................. 30
1.9 Conclusiones....................................................................................... 34
Captulo 2
Modelacion global de la actividad sinaptica
de la corteza cerebral
2.1 Introduccion......................................................................................... 35
2.2 Bases siologicas para la modelacion de la actividad sinaptica en la
corteza cerebral.................................................................................... 36
2.3 Descripcion y simplicaciones en el modelo global de actividad
sinaptica en una banda de corteza....................................................... 44
2.4 Algunos modelos alternativos al modelo de Nu nez.............................. 51
2.5 Desarrollo y estudio de un modelo de la actividad sinaptica de la
corteza cerebral.................................................................................... 56
2.6 Transformacion del sistema de ecuaciones integrales en un sistema de
ecuaciones diferenciales parciales......................................................... 60
2.7 La ecuacion de activacion para la corteza cerebral.............................. 65
2.8 Construccion de un modelo compartimentado de activacion de la
corteza cerebral.................................................................................... 68
IV
Captulo 3
Analisis matematico del modelo de activacion
de la corteza cerebral
3.1 Un modelo matematico para una rebanada de corteza cerebral.......... 82
3.2 Controlabilidad de los estados siologicos de la corteza cerebral........ 89
3.3 Existencia de ondas viajeras en la corteza cerebral............................. 106
3.4 Ondas estacionarias en la corteza cerebral.......................................... 126
Conclusiones .............................................................................................. 129
Bibliografa ................................................................................................ 131
V
Captulo 1
EL CEREBRO: SU ESTRUCTURA, FUN-
CIONES Y DIFERENTES FORMAS DE
MEDIR Y MODELAR SU ACTIVIDAD
1.1 EL CEREBRO: UN SISTEMA COMPLEJO
El cerebro es un sistema extremadamente complejo. Esta compuesto
de aproximadamente 10
11
neuronas densamente interconectadas. Existen
alrededor de 10
15
conexiones entre las neuronas. Cada neurona se conecta
con alrededor de 10
4
neuronas y recibe conexiones de aproximadamente 10
4
neuronas. Ademas las neuronas estan rodeadas por un n umero igual o mayor
de celulas, llamadas celulas gliales.
Estudiar el diagrama de conexiones del cerebro es una tarea enorme, a
pesar de que en muchas areas del cerebro se ha logrado establecer que las
interconexiones entre las neuronas no se hacen al azar, sino que siguen
leyes bastante denidas. Pero aunque lograramos establecer perfectamente
el diagrama de conexiones del cerebro, este sera extremadamente difcil de
manejar.
Tarea igual de compleja o mas es determinar como funcionan las distintas
estructuras del cerebro y como se acoplan entre ellas. El cerebro procesa la
informacion en diferentes escalas espacio-temporales. Se dan interacciones a
nivel sinaptico, entre grupos de neuronas de diversos tama nos, entre areas
cerebrales, etc. de las cuales surgen fenomenos que no se pueden explicar en
1
una sola escala espacio-temporal y que requieren un tratamiento cuidadoso
en varias de estas escalas.
1.2 ALGUNAS ESTRUCTURAS IMPORTANTES DEL
CEREBRO
La informacion que se presenta en esta seccion, fue obtenida de los libros
[17], [71], [106]. Para una informacion mas detallada sobre las distintas
estructuras del cerebro y sus funciones recurrir a ellos.
Se ha logrado establecer que el cerebro se encuentra dividido en muchas
estructuras que interact uan entre s. De algunas de ellas se conoce aproxima-
damente su estructura anatomica y las funciones cerebrales en las que estan
involucradas.
La corteza cerebral, la parte exterior del cerebro y, desde el punto de vista
evolutivo, la parte mas reciente del cerebro, es un organo muy complejo de
aproximadamente dos centmetros de espesor y una supercie aproximada
de 1600 cm
2
. En la cavidad craneana, la corteza se encuentra densamente
plegada, formando giros y surcos. Se divide en cuatro regiones, los lobulos
frontal, parietal, occipital y temporal. Cada uno de ellos cumple con fun-
ciones distintas. Se considera que la corteza se encuentra involucrada en
las siguientes actividades : percepcion sensorial, actividades motoras volun-
tarias, almacenamiento de distintos tipos de memoria, actividad conciente,
etc.
A pesar de su complejidad gran cantidad de circunvoluciones y aproxi-
madamente 10
10
neuronas densamente interconectadas la corteza tiene un
conjunto de caractersticas anatomicas y funcionales que facilitan la elabo-
racion de modelos que nos permiten estudiarla teoricamente.
Algunas de estas caractersticas son:
1. Es un organo estraticado que consta de seis capas horizontales de
distintas densidades, ademas la corteza es bastante uniforme en el plano
determinado por cada capa.
2
2. Tiene una organizacion columnar, es decir las neuronas se agrupan
por columnas de diversos tama nos - minicolumnas, columnas y macro-
columnas corticales - que se traslapan y se orientan perpendicularmente
a la supercie cortical.
3. La corteza cerebral esta mucho mas densamente interconectada consigo
misma que con otras estructuras del cerebro. La estructura que tiene
mas conexiones con la corteza es el talamo y este contribuye con el 1%
de las conexiones que tiene la corteza.
En el siguiente captulo presentaremos mayor informacion cualitativa y
cuantitativa que justique los modelos teoricos que estudiaremos. Por ahora
terminaremos diciendo que en la corteza cerebral humana se procesa la infor-
macion en m ultiples escalas espacio temporales. Se dan interacciones entre
neuronas, entre minicolumnas, entre columnas corticales, entre macrocolum-
nas, entre areas corticales e interacciones que involucran todas estas escalas.
El talamo es una estacion de relevo y centro integrador de las entradas
sensoriales a la corteza. Se cree que tambien regula el nivel de conciencia y
los aspectos emocionales de las sensaciones.
El hipotalamo se considera como la interfaz cerebral con los sistemas
hormonal y autonomo que controlan la homeostasis interna del cuerpo.
El talamo y el hipotalamo constituyen conjuntamente el diencefalo o cere-
bro intermedio.
El sistema lmbico ocupa una porcion cortical y una porcion subcortical.
Se encarga de las funciones relacionadas con la emocion, la motivaci on y
ciertos tipos de memoria. Dos subestructuras del sistema lmbico son el
hipocampo y la amgdala. El hipocampo juega un papel importante en la
memoria. La amgdala coordina las acciones de los sistemas autonomo y
endocrino.
El cerebelo tiene una estructura muy sistematizada y homogenea en todo
el organo. La funcion mas importante del cerebelo es la coordinacion de la
actividad motora y de la postura.
Los ganglios basales son cinco n ucleos altamente interconectados: cau-
dado, putamen, globo palido, n ucleo subtalamico y sustancia nigra. Los
3
ganglios basales se considera que estan implicados en aspectos cognitivos
superiores del control motor y en otras muchas funciones.
Por ultimo, los hemisferios cerebrales estan formados por la corteza y
tres estructuras profundas: los ganglios basales, el hipocampo y el n ucleo
amigdalino. Aunque cada hemisferio tiene funciones especializadas, ambos
trabajan en asocacion en lo que se reere a funciones perceptivas, cognitivas
y motoras superiores.
Existen muchas otras estructuras que no mencionamos en esta seccion.
Tampoco mencionamos las distintas interrelaciones que existen entre las di-
versas estructuras. Para mayor informacion se puede recurrir a los libros
mencionados al inicio de esta seccion.
1.3 LA NEURONA Y SU FISIOLOG

IA
Una exposicion detallada de los temas expuestos en esta seccion y la
siguiente se puede encontrar en [17], [20], [71], [106], [116], [117].
Las neuronas del cerebro presentan una gran variedad de formas y
tama nos, (Fig. #1) , pero en todas ellas se pueden identicar cuatro partes
(Fig. #2):
1. El cuerpo celular o soma.
2. Las dendritas.
3. El axon.
4. Los terminales axonicas o sinapticas.
En el funcionamiento de la neurona, cada una de estas partes tiene un
papel especco:
1. El cuerpo celular es el centro metabolico de la neurona y el lugar donde
se procesa la informacion. Su diametro vara de 5 a 100.
4
2. Las dendritas son el centro receptor de la informacion de la neurona.
Por lo general, la neurona recibe la informacion (en su mayor parte de
tipo electrico) a traves de las dendritas, aunque algunas veces la recibe
directamente a traves del cuerpo celular.
3. El axon es una bra nerviosa que nace del cuerpo celular y es el en-
cargado de transportar las se nales que genera la neurona, en ocasiones
transportando la se nal a distancias considerables. El diametro de los
axones en humano, vara de 0.1 a 20. Frecuentemente los axones
estan envueltos en una vaina grasa, denominada mielina. La vaina esta
dividida por espacios regulares sin mielina, llamados nodos de Ran-
vier. La mision de la vaina de mielina es aumentar la velocidad de
propagacion de las se nales generadas por la neurona.
4. Los terminales axonicos o sinapticos constituyen los elementos de trans-
mision de la neurona. A traves de ellos una neurona contacta y trans-
mite la informacion a la zona receptora de otra neurona. La zona
de contacto se llama sinapsis y por lo general la zona postsinaptica se
ubica en las dendritas, aunque tambien ocurren contactos sinapticos en
el cuerpo celular de la neurona y algunas veces en el axon de la neurona.
Existen aproximadamente 10
4
contactos sinapticos por neurona.
En condiciones de reposo, toda la neurona (cuerpo celular, soma, den-
dritas) esta polarizada de manera tal que el interior tiene un potencial de
-70 mV , considerando que la supercie externa de la membrana es el nivel
de referencia, es decir, tiene potencial cero. Este potencial de la neurona es
llamado potencial de reposo de la membrana. El potencial de reposo puede
variar, dependiendo del tipo de neurona, pero el interior de la membrana de
la neurona queda siempre cargado negativamente, con respecto al exterior
de la misma. Ademas este potencial puede cambiar en respuesta a diversos
estmulos como temperatura, PH, concentraciones extracelulares de iones,
corrientes electricas, etc.
Como ya mencionamos anteriormente la neurona recibe la informacion
(de otras neuronas o informacion producida por medios articiales) a traves
de las dendritas. Esta informacion se presenta como un cambio en el po-
tencial electrico en las dendritas; que llamaremos potenciales postsinapticos.
Estos potenciales, tienen una magnitud entre 0.110 mV , son de naturaleza
5
local, pasivos y disminuyen en intensidad progresivamente y no se detectan
mas alla de 1 o 2 mm del sitio de origen. El cuerpo celular los suma espacial
y temporalmente y cuando se alcanza un cierto umbral, la neurona genera
una se nal, llamada potencial de accion. Esta se nal es un impulso electrico
que se propaga por el axon hasta los terminales axonicos, donde la despolar-
izacion produce la liberacion de neurotransmisores que se propagan a traves
del espacio sinaptico y afectan a la membrana postsinaptica. Esta afectacion
modica el estado electrico de la membrana y puede ser de tipo excitatorio
despolarizandola y as ayudar a la neurona receptora a que genere mas
facilmente un potencial de accion, o de tipo inhibitorio que tiene el efecto
contrario. Estos potenciales postsinapticos seran llamados potenciales excita-
torios postsinapticos (PEPS) si excitan a la neurona y potenciales inhibitorios
postsinapticos (PIPS) si la inhiben.
La se nal que genera una neurona, es decir, el potencial de accion tiene las
siguientes propiedades :
1. Se propaga activamente a lo largo del axon.
2. No disminuye su intensidad en funcion de la distancia.
3. Es de naturaleza todo o nada.
4. Es semejante en todas las neuronas. La amplitud del potencial de
accion es de unos 100 mV y dura de 0.5 a 2 milisegundos. Su velocidad
de propagacion depende del diametro del axon y de su mielinizacion.
5. La mayora de las neuronas generan un potencial de accion cuando el
estmulo aplicado es despolarizante. La magnitud del estmulo debe
ser mayor que un cierto valor crtico, llamado el umbral de disparo de
la neurona. Este umbral depende de la neurona y a un en la misma
neurona puede cambiar.
Tambien existen neuronas que generan un potencial de accion cuando
el estmulo aplicado es hiperpolarizante y de cierta duracion.
6. Si el mismo estmulo aplicado a la neurona, se mantiene durante un
cierto tiempo, el umbral de disparo de la neurona disminuye.
6
7. Una vez que se genera un potencial de accion, la neurona es incapaz,
durante cierto tiempo, de generar un nuevo potencial de accion, inde-
pendientemente de la magnitud del estmulo que se le aplique, en este
caso se dice que la neurona esta en estado refractario. Al tiempo que
dura la neurona en estado refractario se le llama perodo refractario
absoluto. Existe un intervalo de tiempo, llamado perodo refractario
relativo, durante el cual el umbral de disparo de la neurona aumenta y
con esto dicultar la generacion de nuevos potenciales de accion.
El perodo refractario absoluto de una neurona determina la frecuencia
de generacion de potenciales de accion.
8. Un potencial de accion se puede generar mediante estmulos de corriente
que varen linealmente con el tiempo, con tal que la pendiente sea mayor
que un cierto valor crtico. Si la pendiente es menor que este valor
crtico, no se genera ning un potencial de accion, sin importar que tan
grande sea la despolarizacion de la membrana. A esta propiedad de la
membrana se le llama acomodacion.
El mecanismo de propagacion del potencial de accion se puede describir
esquematicamente de la siguiente manera: el estmulo inicial en un punto
del axon (una despolarizacion de la neurona de cierta magnitud) provoca
corrientes locales que uyen de manera pasiva a traves de la membrana,
causando una variacion en el potencial de reposo en zonas cercanas al punto
estimulado.
Esta despolarizacion en las zonas cercanas genera un mecanismo en la
membrana que genera un voltaje muchas veces mayor que el inicial, el cual
a su vez produce corrientes locales que causan un cambio en el potencial en
las zonas adyacentes y as sucesivamente.
Esta claramente demostrado que el potencial de accion no se puede propa-
gar por el axon como si este fuera un cable (en forma pasiva) ya que en este
caso el potencial decrecera en forma exponencial y la rapidez de decreci-
miento estara en funcion de la resistencia de la membrana axonica y de la
resistencia a las corrientes que uyen longitudinalmente a traves del axon
7
1.4 BASES F

ISICAS DEL POTENCIAL DE REPOSO DE LA


MEMBRANA Y DEL POTENCIAL DE ACCI

ON
Toda neurona contiene en su interior varios tipos de iones, entre los que
se encuentra el sodio (Na
+
), el potasio (K
+
) y el cloro (Cl

) en distintas
concentraciones, ademas de algunas otras moleculas como aminoacidos, pro-
teinas, etc. La membrana de una neurona tiene distintas permeabilidades con
respecto a cada tipo de ion. La difusion de los iones a traves de la membrana
celular se realiza a traves de zonas especiales restringidas de la membrana,
llamados poros o canales y existe selectividad de estos canales para los
distintos tipos de iones. La membrana tiene tambien mecanismos activos
para bombear algunos de los tipos de iones (principalmente el potasio y el
sodio) del interior al exterior de la membrana y recprocamente.
En el exterior de la neurona tambien se encuentran distintos tipos de
iones, principalmente sodio, potasio y cloro, en distintas concentraciones.
Para el caso de la membrana neuronal en reposo del axon gigante del
calamar, (ver Tabla 1). Los tipos de iones y las concentraciones de estos,
pueden variar, dependiendo del tipo de neurona que se considere.
Tabla 1
Lquido Potencial de
Especie Citoplasma extracelular equilibrio

ionica (mM) (mM) (mV)


K
+
400 20 75
Na
+
50 440 +55
Cl

52 560 60
A

(iones 385
organicos)
La distribucion de los principales iones a traves de la membrana
neuronal en reposo del axon gigante del calamar.

Se denomina as al potencial de membrana en el que no hay ujo neto de iones a traves


de la membrana
8
Actualmente se considera que el potencial de reposo de la membrana se
logra cuando los ujos pasivos y activos de Na
+
, K
+
, Cl

estan balanceados
(Fig. #3), lo cual se logra cuando las fuerzas de difusion, provocadas por las
distintas concentraciones de los iones, en el interior y exterior de la membrana
se equilibran con las fuerzas electricas, producidas por el hecho de que los
iones son partculas cargadas electricamente.
El potencial de accion se logra cuando la neurona se despolariza hasta
un nivel crtico; en ese momento tiene lugar un cambio s ubito, donde las
barreras normales que se oponen al ujo de sodio y potasio desaparecen
momentaaneamente, estableciendose un ujo local de iones, de suciente
magnitud como para invertir el potencial de membrana, que alcanza unos
50 mV (positivo en el interior) y despues se invierte de nuevo para establecer
el potencial de reposo. Pero la primera inversi on (hacia el interior positivo)
ha producido una se nal potente que se extiende y lleva la region adyacente de
la membrana a un nivel crtico, repitiendose entonces el proceso (Fig. #3).
En la siguiente seccion explicaremos mas detalladamente esto y describiremos
los diversos modelos que existen al respecto.
Una ecuacion importante en la siologa es la ecuacion de Nernst, obtenida
en 1888 por W. Nernst. Esta ecuacion relaciona el potencial de una mem-
brana permeable a un ion con las concentraciones del ion en el interior y el
exterior de la membrana. La ecuacion se aplica con la condicion de que la
corriente total ionica sea igual a cero, es decir, cuando la corriente ionica
producida por el potencial es igual a la corriente producida por la diferencia
de concentraciones en el interior y el exterior de la neurona.
Supongamos que tenemos dos compartimientos A y B, donde se tiene una
solucion que contiene un ion I, a diferentes concentraciones C
A
y C
B
y que
los compartimientos estan separados por una membrana permeable al ion I
(Fig. #4)
Figura 4
A ion I ion I B
C
A
+ C
B
V
9
Como el ion I se encuentra a diferentes concentraciones en A y B, entonces
se empezara a difundir del compartimiento de mayor concentraci on al de
menor concentracion pero como el ion lleva una carga, el compartimiento
hacia el cual se esta difundiendo empieza a aumentar su carga as aumenta su
voltaje frenando la difusion del ion. El equilibrio dinamico se lograra cuando
el voltaje en el compartimiento que recibe los iones difundidos se equilibra
con la fuerza de difusion que surge debido a las distintas concentraciones del
ion. Es decir, cuando:
V =
RT
ZF
ln
_
C
B
C
A
_
(1.1)
donde V es el voltaje entre el compartimiento A y el compartimiento B, R
es la constante de los gases ideales, T la temperatura (en grados Kelvin), Z
la valencia del ion y F la constante de Faraday (la carga de una mole de
partculas univalentes), aproximadamente 9.65 10
4
C/mol. Esta ecuacion
nos permite calcular el voltaje entre A y B en terminos de las concentraciones
del ion en los compartimientos A y B, cuando el ujo neto de iones entre los
compartimientos es cero. Este voltaje entre A y B es llamado el potencial
de equilibrio del ion. En la Tabla 1 estan los valores de los potenciales de
equilibrio de algunos iones.
En el caso que los compartimientos contengan mas de un ion, con dis-
tintas concentraciones y que la membrana contenga canales independientes
para el paso de los iones, se puede calcular el potencial de equilibrio de un
solo ion, usando (1.1), con la condicion de que la membrana tenga abierto,
unicamente, el canal de ese ion. Si todos los canales de la membrana estan
abiertos simult aneamente, entonces el voltaje dependera de las permeabili-
dades (facilidad con que un ion atraviesa la membrana (cm/seg)) relativas
de los iones y de las concentraciones de los iones. Goldman (1943) calculo el
potencial nal promedio:
V =
RT
Z
i
F
ln
_

P
+
i
[I
+
i
]
A
+

i
[I

i
]
B

P
+
i
[I
+
i
]
B
+

i
[C

i
]
A
_
(1.2)
donde P
+
i
, P

i
representan las permeabilidades de las especies ionicas positi-
vas y negativas respectivamente y [I
+
i
]

, [I

i
]

son las concentraciones de estos


iones en el compartimiento .
10
En el caso de la membrana de una neurona sabemos que en el interior
y el exterior de la misma se encuentran varios tipos de iones con distintas
concentraciones y permeabilidades. Entre los principales se encuentran el
sodio (Na
+
), el potasio (K
+
) y el cloro (Cl

). Aplicando (1.2) para estos


tres iones obtenemos:
V =
KT
F
ln
_
P
k
+[K
+
]
e
+ P
Na
+[Na
+
]
e
+ P
Cla
[Cl

]
i
P
k
+[K
+
]
i
+ P
Na
+[Na
+
]
i
+ P
Cla
[Cl

]
e
_
(1.3)
En la ecuacion de Goldman se supone que el campo electrico que existe
a traves de la membrana vara uniformemente, por lo que tambien se supone
que los movimientos de los iones a traves de la membrana son independientes
unos de otros.
La importancia de este resultado es que nos permite hacer predicciones
cuantitativas del potencial de membrana cuando se tienen variaciones de las
concentraciones de los iones y de las permeabilidades de la membrana a los
distintos iones.
Usando la ecuacion de Nernst y con ciertos experimentos de tipo electrico
se ha logrado demostrar que la membrana de una neurona en estado de reposo
no es permeable unicamente al potasio sino que tambien es permeable al
sodio, aunque la permeabilidad del sodio es muy peque na con respecto a la
del potasio. Se considera que la permeabilidad con respecto a los iones de
sodio es aproximadamente el 1% de la correspondiente a los iones de potasio
y por ello debe de haber una bomba en la membrana que bombea iones
de sodio hacia el exterior de la membrana e iones de potasio al interior de la
misma.
Tambien se logro establecer lo que ocurre cuando una neurona genera
un potencial de accion. El potencial de accion se genera cuando se logra
una despolarizacion de la membrana de aproximadamente 15 mV y en ese
momento ocurre que la permeabilidad de la membrana al sodio aumenta, por
la apertura de canales de Na
+
(que dependen del voltaje), lo que hace que
el potencial se eleve. Esto a su vez permite que aumente la permeabilidad
de la membrana, por un nuevo aumento de los canales de sodio, lo que
hace que el potencial se eleve y as sucesivamente, hasta que el potencial casi
alcanza el potencial de equilibrio del sodio (se establece en la membrana un
11
mecanismo de retroalimentaci on positiva entre el potencial de membrana y
la permeabilidad de esta al sodio). Este potencial de equilibrio no se alcanza
ya que cuando se inicia el aumento de la permeabilidad de la membrana al
sodio, un corto tiempo despues empieza a aumentar la permeabilidad de la
membrana al potasio y una entrada de cloro a la membrana. Ademas los
canales de sodio empiezan un proceso de inexcitabilidad y tambien se tiene
un ujo pasivo de iones de potasio.
En resumen, el potencial de accion se origina cuando la estimulacion
electrica alcanza un cierto umbral. Su dinamica se encuentra determinada
por la relacion que existe entre las distintas corrientes ionicas que se estable-
cen en la membrana, tanto corrientes pasivas como activas.
En la seccion 1.6 se mostraran algunos modelos que describen este proceso
de manera cuantitativa.
Una manera equivalente de estudiar el potencial de membrana de una
neurona consiste en construir un circuito electrico que incorpore las tres
propiedades basicas que utiliza la membrana para generar se nales electricas
- los canales ionicos, los gradientes de concentraci on de los iones, la capaci-
dad de la membrana para almacenar carga electrica. Cada canal ionico se
puede representar como una resistencia (o como una conductancia que es
la inversa de la resistencia). La conductancia para un canal ionico sera en
cierta medida, equivalente a la permeabilidad de la membrana a ese ion. La
capacidad de la membrana para almacenar carga se puede representar como
una capacitancia y los gradientes de concentracion como una batera (Figs.
#5,6)
El modelo de circuito equivalente es muy importante desde el punto de
vista experimental ya que permite el uso de tecnicas electrosiologicas para
el estudio de las se nales neurales, en lugar del uso de isotopos radiactivos que
se usan para medir los cambios de permeabilidad y difusion de iones.
1.5 T

ECNICAS PARA OBTENER INFORMACI

ON DEL
CEREBRO
En el proceso de obtener informacion sobre la estructura anatomica y
funcional del cerebro en sus diversos niveles neurona, poblaciones de neu-
12
ronas y todo el cerebro se han elaborado, con la ayuda de la tecnologa y
otras ciencias, un conjunto de tecnicas e instrumentos que se han ido mejo-
rando con el transcurso del tiempo y que han sido de gran utilidad para el
diagnostico clnico, para los neuroanatomistas y los neurosiologos.
Para el estudio anatomico se han usado instrumentos como el microscopio
optico, el microscopio electronico, etc. y algunos metodos de tincion selectiva
como el metodo de Golgi, Nissl, Nauta, etc. El metodo de Golgi, inventado
por Camilo Golgi alrededor de 1875, es un metodo de tincion selectiva que
tiene la propiedad de que al te nir un grupo de neuronas, solo algunas de
ellas, aproximadamente una de cada cien se ti nen por completo (dendritas,
cuerpo celular, axon) y las demas quedan intactas. Con este metodo, San-
tiago Ramon y Cajal logro establecer que el cerebro esta constituido por
celulas separadas, que las interconexiones entre ellas no eran al azar, ademas
de describir la arquitectura de una gran cantidad de estructuras del cerebro.
Con el metodo de Nissl se logra destacar los cuerpos celulares de las neuronas,
pero no sus dendritas y axones. Por mucho tiempo los neuroanatomistas us-
aron estos dos metodos de tincion para estudiar anatomicamente el cerebro.
Alrededor de 1952 W. Nauta invent o un metodo de tincion selectiva, que
actualmente lleva su nombre. Seg un D. H. Hubel, este metodo es el primer
instrumento ecaz para cartograar las conexiones entre las distintas estruc-
turas del cerebro. El metodo de Nauta aprovecha el hecho de que, cuando
se destruye una neurona, la bra nerviosa que procede de ella degenera y,
antes de desaparecer por completo, puede ser te nida de manera diferente de
sus vecinos normales.
Los avances tecnologicos y una mayor comprension del funcionamiento
de las neuronas han permitido crear tecnicas con las cuales, no solo se logra
obtener informacion mas precisa sobre las conexiones entre regiones cere-
brales, identicar neuronas, sino tambien sobre las zonas activas del cerebro.
Existen tecnicas que aprovechan el hecho de que las neuronas absorben
y sintetizan varias sustancias protenas, enzimas, etc. . Algunas de estas
sustancias son transportadas, a traves del axon, desde el soma hasta los ter-
minales axonicos (transporte anter ogrado). Tambien existe un transporte
de sustancias desde los terminales axonicos al cuerpo celular (transporte
retrogrado).
13
La autorradiografa de Cowan (1972) es una tecnica que aprovecha el
transporte axonico anter ogrado para determinar los terminales axonicos de
una neurona. Esta tecnica consiste en inyectar, en alguna estructura cere-
bral, aminoacidos marcados radiactivamente, estos penetran en el soma de
la neurona y se incorporan en las sustancias que son transportadas hasta los
terminales axonicos, donde se les puede detectar por un proceso de autorra-
diografa.
Tambien se cuenta con tecnicas que aprovechan el transporte axonico
retrogrado. Entre las mas conocidas esta la tecnica de la peroxidasa de
rabano, se inyecta en el sistema nervioso, la enzima peroxidasa de rabano,
esta es absorbida por los terminales axonicos y transportada retrogradamente
hacia el cuerpo celular, donde puede ser detectada por diversas tecnicas, y
as conocer el origen del axon.
Para mayor informacion de otras sustancias que se usan para el estudio de
las conexiones entre regiones cerebrales, otros metodos para detectar sustan-
cias (la inmunohistoqumica se basa en la deteccion de sustancias tisulares
por medio de anticuerpos), la hibridacion in situ, etc. recurrir a [51] y [107].
En este ultimo se hace una revision detallada de la organizacion neuronal y
sinaptica de la corteza cerebral.
Basandose en el hecho de que la glucosa es el combustible de las neuronas,
y estas consumen mas glucosa cuando estan activas que cuando se encuentran
en reposo, Louis Sokolo (1977) invento una tecnica que le permitio medir
el metabolismo de las neuronas.
La tecnica consiste en inyectar en el torrente sanguneo un analogo
qumico de la glucosa (la 2desoxiglucosa), que es absorbida por las neuronas,
mediante el mismo sistema que la glucosa, aunque una vez en el interior de
la neurona, ya no puede ser metabolizada. Si la 2desoxiglucosa es marcada
radiactivamente e inyectada en el torrente sanguneo, la velocidad con que
se acumula en el interior de las neuronas, nos proporciona un ndice de la
actividad metabolica de las neuronas.
Las tecnicas que hemos mencionado hasta ahora requieren en alg un mo-
mento de la destruccion del sujeto de estudio. Con el desarrollo de la tec-
nologa se crearon nuevas tecnicas menos invasivas, que permitan obtener
informacion sobre la actividad del cerebro humano en vivo, por ejemplo la to-
14
mografa axial computarizada (TAC), la tomografa por emision de positrones
(TEP) y la formacion de imagenes por resonancia magnetica (IRM), entre
otras. Las herramientas teoricas fundamentales para el analisis de los dife-
rentes tipos de tomografas estan vinculadas a la transformada de Radon y
los metodos matematicos y computacionales de reconstruccion por proyec-
ciones. Existe una vasta bibliografa de estos temas entre los que vale citar
a [53], [54] y [85].
La tomografa axial computarizada se aprovecha del hecho que los distin-
tos tejidos absorben diferentes cantidades de energa de rayos X; mientras
mas denso es el tejido, tanto mas absorbe. Por ello un haz de rayos X muy
concentrado que atraviese el cuerpo emergera del mismo a un nivel reducido
de intensidad que dependera de los tejidos y organos encontrados a su paso.
Si se dirigen a traves del cuerpo haces planos de rayos X con diferentes
angulos de inclinacion, se recogera informacion suciente para reconstruir
una imagen de la seccion del cuerpo, la cual debidamente procesada permite
reconstruir una imagen tridimensional de la intensidad de radiacion absorbida
y por ende de la estructura interna del objeto estudiado. La tomografa por
emision de positrones, permite cartograar las estructuras cerebrales activas
ya que permite la medicion de diversas actividades del cerebro, tales como
el metabolismo de la glucosa, el consumo de oxgeno, el riego sanguneo y la
interaccion con los farmacos. De todas estas variables, el ujo sanguneo ha
demostrado ser el indicador mas able de la funcion cerebral en cada mo-
mento. Con la TEP se pueden localizar cambios de actividad con precision
milimetrica.
La formacion de imagenes por resonancia magnetica (IRM) es un ins-
trumento bastante com un para diagnosticar lesiones en tejidos. Tuvo su
origen en una tecnica de laboratorio denominada resonancia magnetica nu-
clear (RMN), dise nada con el n de explorar las caractersticas qumicas de
las moleculas. La (RMN) se basa en que muchos atomos se comportan como
diminutas agujas imantadas en presencia de un campo magnetico. En es-
tas condiciones, la aplicacion de impulsos de una onda radioelectrica a una
muestra, perturba los atomos de una manera muy precisa, y estos en con-
secuencia emiten se nales de radio detectables que identican el n umero y
el estado de los atomos pertenecientes a la muestra. El ajuste del campo
magnetico y de los impulsos de onda radioelectrica proporciona informacion
15
sobre la muestra de estudio. En el caso del cerebro P. C. Lauterbur descubrio
que podan formarse imagenes por RMN mediante la deteccion de protones.
La utilidad de estas partculas, abundantes en el cuerpo humano, reside en
su gran sensibilidad a los campos magneticos que los hace comportarse como
min usculas agujas imantadas. De esta forma se obtuvieron excelentes ima-
genes anatomicas con detalle muy superior a las conseguidas mediante TAC.
El interes por aplicar la IRM a la obtencion de imagenes cerebrales se
debe a que esta tecnica es capaz de detectar una se nal inaccesible a las ex-
ploraciones mediante TEP como por ejemplo, el aumento en la concentraci on
de oxgeno que se produce en una zona donde se ha intensicado la actividad
neuronal. Otras ventajas sobre la TAC y otras tecnicas son:
1. La se nal procede directamente de cambios inducidos por causas fun-
cionales en el tejido cerebral (el cambio en la concentraci on de oxgeno
venenoso).
2. Para obtener una se nal no hay que inyectar ninguna substancia, radi-
activa o de otro tipo.
3. La IRM proporciona informacion anatomica y funcional sobre cada
sujeto, lo cual permite una identicacion estructural exacta de las zonas
activas.
4. Adecuadamente equipada, puede observar en tiempo real el ritmo de
cambio de la se nal de oxgeno inducida en el ujo sanguneo.
Sin embargo a pesar de las ventajas que proporciona la combinacion de
estas tecnicas, ninguna de ellas puede determinar la evolucion temporal del
intercambio de informacion en diferentes zonas del cerebro, lo cual es funda-
mental para estudiar como se coordinan en red diferentes zonas del cerebro
para la realizacion de una actividad dada. El obstaculo que enfrentan la
IRM y TEP para este objetivo es la gran diferencia de velocidades entre la
actividad neuronal y el ritmo de variacion de los niveles de oxigenacion en las
neuronas. Las se nales viajan de una parte a otra del cerebro en 0.01 segundos
o menos, pero los cambios de ujo sanguneo y oxigenaci on de la sangre son
mucho mas lentos y ocurren desde decimas de segundo hasta varios segun-
dos mas tarde. La IRM no puede seguir las conversaciones entre regiones
16
cerebrales. Los unicos metodos que responden con rapidez suciente son las
tecnicas de registro electrico, es decir, la electroencefalografa (EEG) que
detecta la actividad electrica del cerebro a partir de mediciones efectuadas
sobre el cuero cabelludo y la magnetoencefalografa (MEG), la cual mide el
comportamiento electromagnetico que genera la actividad electrica en el in-
terior del cerebro. El defecto de estas tecnicas es que su resolucion espacial
es menor que la de otras tecnicas y la localizacion precisa de las fuentes de
actividad cerebral sigue siendo un problema muy complejo.
En 1929 el psiquiatra aleman Hans Berg demostro que era posible medir
usando electrodos colocados en el cuero cabelludo la actividad electrica
del cerebro humano. Demostro que bajo ciertas condiciones en el sujeto de
estudio (ojos cerrados, sin estmulos exteriores, relajado) el registro de la
actividad electrica segua un patron temporal rtmico al que llamo ritmo .
Este patron temporal tena una frecuencia entre 9 y 10 c/s. Los orgenes -
siologicos del ritmo , siguen siendo motivo de controversia, algunos siologos
consideran que el ritmo se origina en el talamo y que el talamo le impone
este ritmo a la corteza, a traves de las conexiones que existen entre am-
bos, mientras que otros consideran que este ritmo es una manifestacion de la
actividad masiva de la corteza cerebral.
Posteriormente se han descubierto otros patrones temporales rtmicos que
se producen bajo ciertas condiciones corporales especiales. Por ejemplo, el
ritmo (0 a 5 Hz) se produce bajo sue no profundo, el ritmo (15 a 30 Hz)
se produce bajo intensa actividad mental y otros mas.
El EEG (medido en el cuero cabelludo o en otras regiones del cerebro)
se ha convertido en una herramienta clnica importante para el estudio de
ciertas patologas del cerebro, como la epilepsia, tumores cerebrales, etc.
Estas patologas aparecen en el EEG como patrones anormales de la actividad
electrica espontanea del cerebro. Los potenciales evocados (los potenciales
que se producen como repuesta a un estmulo) se han usado en gran medida
para el diagnostico clnico de las afecciones sensoriales (auditivos, visuales,
etc.) y en la deteccion de problemas cognitivos [14], [92], [105].
Uno de los problemas fundamentales de la electroencefalografa consiste
en correlacionar los patrones espacio-temporales obtenidos mediante el EEG
con la actividad electrica del cerebro y con conductas observables. Si se quiere
17
elaborar modelos que describan la dinamica de la actividad electrica del cere-
bro y que se correlacionen con los patrones espacio-temporales obtenidos con
el EEG; se requiere tomar en cuenta las escalas espacio-temporales en que
estan promediando las mediciones efectuadas ya que los datos electroence-
falogracos son obtenidos promediando la actividad neuronal en distintas
escalas espacio-temporales. Existen EEGs con distintas resoluciones tanto
espaciales como temporales. Por ello las variables a considerar en nuestros
modelos deben estar en congruencia con las escalas espacio-temporales usa-
das en el EEG. En el siguiente captulo detallaremos los problemas que se
presentan en esta area de estudio.
Los modelos que mas han sido estudiados son los que utilizan los princi-
pios de la teora del campo electromagnetico considerando al cerebro como
un medio continuo conductor, con una cierta geometra (que depende de las
hipotesis del modelo) y cierta conductividad variable.
En el problema directo, se considera dada la ubicacion de las fuentes
de corrientes impresas (zonas activas), su conguracion, la geometra de la
cabeza y las conductividades de los distintos comportamientos (cuero cabe-
lludo, craneo, corteza, lquido extracraneal, etc.) y se calcula la distribucion
del potencial generado en estas condiciones, comparandose los resultados
teoricos con los obtenidos con tecnicas electroencefalogracas. Mediante el
aporte de ambos datos se puede encontrar alguna informacion sobre la res-
puesta electrica de una zona activa dada.
El problema inverso consiste en obtener informacion sobre la ubicacion de
las fuentes de corrientes impresas y las conductividades en diferentes partes
del cerebro usando los datos discretos que se obtienen con el EEG. Este
problema no tiene solucion unica, es decir, existe una multitud de distribu-
ciones de fuentes de corriente en el cerebro que pueden producir la misma
distribucion de potencial en el cuero cabelludo. Al no tener solucion unica
el problema inverso, usualmente se agregan restricciones, sugeridas por la
anatoma y siologa del cerebro, a las posibles fuentes que originan la dis-
tribucion de potencial dada sobre el cuero cabelludo.
Usualmente estos modelos se restringen a la aproximaci on electrostatica
por lo que son utiles para estudiar la distribucion espacial de generadores de
los EEG pero no as sus propiedades temporales [9], [105].
18
Para estudiar la dinamica espacio-temporal de la actividad electrica se
pueden construir ecuaciones plausibles, a partir de datos anatomicos y -
siologicos que involucren variables que sean congruentes con las escalas
espacio-temporales usadas en los distintos EEG, para estudiar sus soluciones
y su relacion con las mediciones obtenidas a traves del EEG.
Finalmente, otro metodo usado consiste en elaborar una jerarqua de
escalas espacio-temporales. En cada escala espacio-temporal se deducen las
ecuaciones que gobiernan las variables que se consideran idoneas en ese nivel
y se estudia la relacion que existe entre un nivel y el nivel superior inmediato.
En la seccion siguiente desarrollaremos con mayor detalle algunos de estos
modelos.
1.6 ALGUNOS MODELOS DE ESTRUCTURAS DEL
CEREBRO
En el estudio del cerebro se han elaborado diversos modelos para los
distintos niveles del mismo. Se cuenta con modelos a nivel de neurona, grupos
de neuronas, de subestructuras del cerebro y del cerebro completo. Cada uno
de estos modelos toma en cuenta ciertos aspectos del cerebro dependiendo
de los problemas que se quieren estudiar. Es importante recalcar que los
elementos y las relaciones que se toman en cuenta para la elaboracion del
modelo estan intimamente relacionados con el nivel del cerebro que se este
considerando y con los fenomenos que se quieren explicar.
Uno de los primeros exitos importantes en la modelacion matematica en
el estudio del cerebro fue el logrado por A. Hodking y A. Huxley (H.H) en
1952 [57].
El modelo por ellos propuesto describe, por medio de un sistema de ecua-
ciones diferenciales no lineales, como vara temporalmente el potencial de
membrana en funcion de las corrientes ionicas, que uyen a traves de la mem-
brana en el axon de un calamar. El modelo toma en cuenta tres corrientes
ionicas, la de potasio (I
K
), la de sodio (I
Na
) y una corriente de ltraje (I
L
).
Considera que las corrientes de sodio y potasio uyen a traves de canales
cuya conductancia depende del potencial de membrana y del tiempo.
19
De acuerdo con las leyes de Kirchho, se tiene que:
C
m
dV
dt
= I
Na
+ I
K
+ I
L
, (1.4)
donde C
m
es la capacitancia de la membrana. Tambien se tiene:
I
Na
= g
Na
(V V
Na
) , (1.5)
I
K
= g
K
(V V
K
) , (1.6)
I
L
= g
L
(V V
L
) , (1.7)
donde g

es la conductancia del ion y V

el potencial de equilibrio de dicho


ion. Luego se tiene que
C
m
dV
dt
= g
Na
(V V
Na
) + g
K
(V V
K
) + g
L
(V V
L
) . (1.8)
En este modelo se considera que g
Na
y g
K
son dependientes del potencial
V y g
L
es constante, es decir:
C
m
dV
dt
= m
3
h g
Na
(V V
Na
) + n
4
g
K
(V V
K
) + g
L
(V V
L
) , (1.9)
donde g
Na
, g
K
son las conductancias maximas del sodio y el potasio y 0 <
m, n, h < 1 donde m y n son variables de activacion y h una variable de
inactivacion que obedecen las ecuaciones:
dm
dt
=
m
(1 m)
m
m , (1.10)
dn
dt
=
n
(1 n)
n
n , (1.11)
dh
dt
=
h
(1 h)
h
h , (1.12)
con coecientes
m
,
m
,
n
,
n
,
h
,
h
que son funciones obtenidas empircamente
y que dependen del potencial V .
20
Hodking y Huxley describen un gran n umero de experimentos controla-
dos que involucran corrientes, conductancias y potenciales, cuyos resultados
coinciden con las predicciones del modelo. El modelo (1.9), (1.10), (1.11)
y (1.12) se construyo bajo la hipotesis de que el potencial de membrana sea
uniforme a lo largo del axon, o se considere unicamente un pedazo peque no
de membrana. Para estudiar situaciones en las que el potencial de membrana
vara temporal y espacialmente a lo largo del axon, este modelo no se puede
aplicar. Usando resultados de la teora del cable se puede construir un sis-
tema de ecuaciones diferenciales parciales no lineales que tomen en cuenta la
dependencia espacial y generalicen el sistema (1.9), (1.10), (1.11), (1.12).
En este caso el sistema de ecuaciones que se obtiene es
1
R

2
V
x
2
= C
V
t
+ g
Na
m
3
h(V V
Na
)2r
+{ g
k
n
4
(V V
k
) + g
e
(V V
e
)}2r , (1.13)
m
t
=
m
(1 m)
m
m , (1.14)
h
t
=
h
(1 h)
h
h , (1.15)
n
t
=
n
(1 n)
n
n , (1.16)
donde r es el radio del axon, R es la resistencia por unidad de longitud en el
interior del axon y C la capacitancia de la membrana por unidad de longitud.
Para un resumen de los experimentos realizados por Hodking y Huxley y
de los resultados obtenidos consultar [21]. Tambien se puede consultar [40].
El modelo es importante ya que describe la evoluci on temporal del po-
tencial de membrana en funcion de las corrientes ionicas subyacentes. Sin
embargo, no toma en cuenta los eventos moleculares y qumicos subyacentes
al proceso, y por lo tanto no es posible predecir como inuyen en el proceso
los cambios en el nivel qumico y molecular. Ademas no es un modelo univer-
sal, es decir, se aplica unicamente al potencial de membrana de una neurona
del calamar gigante.
21
El modelo de H-H incorpora unicamente tres corrientes ionicas, sodio,
potasio y una corriente de ltracion, y debido a esto, el modelo consiste de un
sistema de 4 ecuaciones diferenciales ordinarias. Existen otros modelos donde
se incorporan mas corrientes ionicas, por ejemplo, Bucholtz, [16] elabora un
modelo de la L. P. neurona en el ganglio estomatogastrico del cangrejo. Este
modelo consiste de un sistema de 14 ecuaciones diferenciales ordinarias.
Otros neurosiologos elaboran modelos de neuronas que siguen esencial-
mente los principios del modelo de H-H, los cuales incorporan mas corrientes
ionicas o toman en cuenta las variaciones de las concentraciones de ciertos
iones en el interior de la membrana. En [21] se presentan otros modelos de
neuronas, tambien se pueden ver otros modelos en [99], [100].
El estudio matematico de estos modelos es bastante complejo debido al
n umero de ecuaciones diferenciales que aparecen. Por lo general son in-
tratables analticamente y a veces solo se pueden encontrar soluciones por
integracion n umerica. Se han realizado algunos estudios cualitativos de al-
gunos de estos modelos [58], [111].
Una tecnica que se usa frecuentemente es reducir, mediante alg un me-
canismo, el n umero de dimensiones del modelo manteniendo las principales
caractersticas del mismo. Por ejemplo, Fitzhugh [28], [29], propone un mo-
delo bidimensional para el modelo de H-H Abbot, Kepler [2] proponen un
metodo de reduccion mas sistematico que el de Fitzhugh, ya que reducen el
modelo de H-H a dos dimensiones, y Golomb, Guckenheimer, Gueron [39],
aplican este metodo para reducir el modelo de Buchholtz a 7 dimensiones.
Doya, Selverston [26] elaboran un metodo de reduccion de variables usando
redes neuronales articiales.
1.7 REDES NEURONALES
El estudio de la estructura y funcionamiento de una neurona es un paso
importante en el estudio del cerebro, pero el cerebro esta compuesto de
aproximadamente 10
11
neuronas densamente interconectadas, organizadas en
grupos de diversos tama nos. Las neuronas de un mismo grupo pueden inter-
actuar entre s y tambien pueden interactuar los grupos entre s y frecuente-
mente se dan estos tipos de interacci on de manera simultanea. La estructura
22
de estos grupos y sus mecanismos de interaccion no son muy conocidos. Los
estudios experimentales de estos grupos de neuronas son difciles de realizar.
Los modelos de redes neuronales (un conjunto de unidades elementales
interconectadas) son una herramienta importante para resolver muchos pro-
blemas en el area de la ingeniera de la computacion, matematicas, neuro-
siologa, etc. En cada una de estas areas se interesan en diferentes aspectos de
las redes neuronales, dependiendo de los problemas que se quieran resolver.
A los neurosiologos les interesa estudiar redes neuronales con la nalidad
de estudiar el cerebro humano. Ellos desean construir redes neuronales rea-
listas que imiten ciertas capacidades del cerebro como las sensoriales, las de
aprendizaje y las relacionadas con la memoria. Tambien desean construir re-
des que describan los mecanismos subyacentes a los patrones rtmicos que se
detectan en el cerebro. Para los ingenieros, computologos y matematicos, in-
teresa construir redes neuronales con nes computacionales. A estas ultimas
se les conoce como redes neuronales articiales y frecuentemente tienen poca
relacion con lo que ocurre en el cerebro.
Las redes neuronales se construyen siguiendo ciertas propiedades que tiene
el cerebro. Estan constituidas por un conjunto de n unidades elementales
llamadas neuronas articiales, unidades de procesamiento o nodos que estan
conectados entre s.
Las propiedades de las redes dependen del n umero de neuronas de que
consta la red y de la forma en que se interconectan.
Cada nodo se modela considerando algunas caractersticas de las neu-
ronas reales. Como mencionamos anteriormente una neurona real recibe la
informacion por las dendritas, la procesa en el cuerpo celular y bajo ciertas
condiciones emite potenciales de accion.
Si la red tiene n nodos, a cada nodo i se le asignan tres cantidades:
la entrada neta S
i
al nodo i, U
i
= U
i
(t), el estado interno del nodo en el
instante t (potencial de membrana de una neurona real), la se nal de salida
y
i
del nodo i (n umero de potenciales de accion que dispara la neurona por
unidad de tiempo) que es funcion del estado interno, es decir
y
i
= f
i
(U
i
) ,
23
donde f
i
transforma el estado interno U
i
en una se nal de salida y
i
.
La entrada S
i
al nodo i, usualmente se considera de la forma
S
i
=
n

j=1
W
ij
y
i
,
donde W
ij
es el tercer tipo de magnitud asociada a un nodo y se llama peso
sinaptico. Esta cantidad nos indica el grado de conexion entre el nodo i y el
nodo j. El peso W
ij
puede ser constante o dependiente del tiempo y puede ser
positivo o negativo seg un corresponda a una conexion excitatoria o inhibitoria
respectivamente. Se considera que el conocimiento se encuentra representado
en los pesos sinapticos y que los procesos de aprendizaje implican cambios
en los pesos sinapticos.
Los modelos de redes neuronales que se obtienen, dependen de como se
relacionan las cantidades asignadas a cada nodo.
El primer modelo que se construyo fue el modelo de Mc Culloch-Pitts [80]
que tiene las siguientes caractersticas.
1. W
ij
constantes.
2. y
i
= f
i
(U
i
) =
_
_
_
1 , si
n

i=1
W
ij
y
i

i
(la neurona dispara),
i
umbral de la neurona i
0 , en el otro caso .
En este caso se dice que el nodo o neurona articial es binario, es decir
esta activado o esta desactivado dependiendo de si la magnitud S
i
rebasa un
umbral o no.
En otros modelos lo que se construye es una ecuacion diferencial en U
i
que describe la evoluci on temporal de U
i
:
dU
i
dt
= G
i
(U
i
, S
i
), i = 1, 2, ..., n .
Por ejemplo en el modelo de Hopeld [59], [60]:

i
dU
i
dt
=
i
U
i
+ (S
i
+
i
) ,
24
S
i
=
n

j=1
W
ij
g
j
(U
j
) con g, una funcion sigmoide .
En el modelo de Grossberg [43]:

i
dU
i
dt
= U
i
+ (
i

i
U
i
)
_
_
n

j=1
W
ij
g
i
(U
j
) +
j
_
_
.
Cuando se quiere estudiar redes neuronales que aprendan, es decir que
sean capaces de modicar sus pesos sinapticos, se debe agregar un sistema
de ecuaciones diferenciales que describan la evolucion temporal de los pesos
sinapticos.
Las redes neuronales se forman con un conjunto de neuronas interconec-
tadas. Dependiendo de como se agrupan las neuronas, las redes se clasican
en:
1. Redes neuronales monocapa (1 capa). Una capa o nivel es un conjunto
de neuronas cuyas entradas provienen de la misma fuente (que puede
ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino.
2. Redes neuronales multicapa.
Con respecto a las conexiones en la red, si ninguna salida de las neuronas
es entrada de la misma capa o capas precedentes, se dice que la red es de
propagacion hacia adelante. Cuando las salidas pueden ser conectadas como
entradas de neuronas de niveles previos o del mismo nivel, incluyendose ellas
mismas ademas de conexiones con neuronas de las capas posteriores, se dice
que la red es de propagacion hacia atras.
Con respecto al aprendizaje de las redes neuronales, modicacion de los
pesos sinapticos, las redes neuronales se pueden clasicar como: redes neu-
ronales con aprendizaje supervisado y redes neuronales con aprendizaje no
supervisado. En las primeras se precisa de un agente externo (supervisor)
que controle el proceso de aprendizaje de la red, y que determina la respuesta
de la red a partir de una entrada determinada, en las segundas la propia red
controla su propio proceso de aprendizaje.
En ambos tipos de redes se requiere conocer las reglas de aprendizaje
criterios que se siguen para modicar los pesos sinapticos. El aprendizaje
25
supervisado se puede llevar a cabo de tres maneras: aprendizaje por co-
rreccion de error, por esfuerzo y estocastico. En el aprendizaje no supervisado
se puede llevar a cabo, entre otras maneras, el aprendizaje Hebbiano y el
aprendizaje competitivo y cooperativo. Para mayor informacion sobre este
tema recurrir a [11], [12], [31] y [55].
El primer modelo de red neuronal articial, llamada Perceptron, fue de-
sarrollado por Rosenblatt [98]. El Perceptron es una red neuronal con apren-
dizaje supervisado, con regla de aprendizaje de correccion de error, de propa-
gacion hacia adelante que consiste de dos capas, una de entrada - que tiene
n neuronas lineales - y la otra capa, que consta de una sola neurona, es la
capa de salida. El Perceptron es capaz de decidir cuando una entrada pre-
sentada a la red pertenece a una de las dos clases que es capaz de reconocer.
La unica neurona de salida del Perceptron realiza la suma ponderada de las
entradas, resta el umbral y pasa el resultado a una funcion de transferencia
de tipo escalon. La regla de decision es responder +1 si el patron presentado
pertenece a la clase A, o 1 si patron pertenece a la clase B; A y B son las
dos clase que el Perceptron es capaz de reconocer, previo entrenamiento. El
Perceptron funciona cuando el conjunto de nadas, cuyas componentes son
las entradas a las nneuronas de la capa de entrada, pueden ser separadas
por un hiperplano ndimensional - el correspondiente a

N
i=1
W
i
X
i
= 0;
donde W
i
es el peso correspondiente a la entrada X
i
y el umbral. En general
esto no siempre se puede hacer. Posteriormente se desarrolla el Perceptron
multicapa [11], [31].
El Adaline y el Madaline son redes neuronales desarrolladas por Widrow
y Ho [118] en 1960.
La arquitectura del Adaline y del Madaline son esencialmente la misma
que la del Perceptron. Lo que cambia es la regla de aprendizaje ya que
Adaline y Madaline usan la llamada regla delta de Widrow - Ho o regla del
mnimo error cuadrado (LMS), basada en la b usqueda de una expresion del
error entre la salida deseada y la salida lineal obtenida antes de aplicarle la
funcion de activaci on escalon (a diferencia de la salida binaria utilizada en
el caso del Perceptron). Sus principales aplicaciones estan en el campo del
procesamiento de se nales.
Tambien existen redes con aprendizaje supervisado del tipo estocastico,
26
la maquina de Boltzman [56], etc., del tipo aprendizaje con refuerzo, Linear
Reward-Penalty o L
RP
.
Con respecto a las redes con aprendizaje no supervisado se tienen: la
red de Hopeld, Learning Matrix, etc. que utilizan el aprendizaje Hebbiano
(ajuste de los pesos de las conexiones de acuerdo con la correlacion de los
valores de activaci on de las dos neuronas conectadas).
Para las que utilizan el aprendizaje competitivo - cooperativo (las neu-
ronas compiten o cooperan unas con otras con el n de llevar a cabo una
tarea) ver [5], [7].
Para mayor informacion sobre la arquitectura, reglas de aprendizaje, apli-
cacion y limitaciones de las redes que hemos mencionado y a otras mas re-
currir a: [31], [55].
Cuando se intenta construir modelos de redes neuronales para el estu-
dio del cerebro, los nodos de las redes se pueden interpretar como una sola
neurona o como un grupo de neuronas.
Matematicamente no existe ninguna distincion entre estos dos casos, pero
si se desea construir redes neuronales que describan ciertos fenomenos que
ocurren en el cerebro y que los resultados se correlacionen con mediciones
experimentales, la distincion s es importante.
Se ha detectado actividad rtmica en algunas estructuras del cerebro:
oscilaciones en el talamo, oscilaciones en el sistema bulbo olfativo, corteza,
etc. Algunos modelos de redes neuronales se elaboran tomando en cuenta
datos anatomicos y siologicos con la nalidad de describir estos fenomenos
temporales rtmicos. Por ejemplo:
Lopes da Silva [76], [77] elabora un modelo de red neuronal que intenta
explicar los orgenes del ritmo en el perro con redes neuronales creadas con
neuronas de la corteza y del talamo.
Destexhe, Contreras, Sejnowski, y Steriade [24] elaboran un modelo de red
neuronal para neuronas del n ucleo reticular talamico y obtienen resultados
teoricos de tipo oscilatorio con frecuencias de 7 a 14 Hz y otros en el rango
de 0.5 - 1 Hz dependiendo de los parametros que se consideran.
27
Freeman [33], [34], [35], elabora un modelo que describe el modo en que
la informacion sensorial puede ser procesada en un modo distribuido para
una de las formas mas simples de corteza. El modelo se elabora con base en
estudios anatomicos y siologicos sobre las interconexiones neuronales entre
el bulbo olfativo y la corteza en gatos y conejos e intenta relacionar los re-
sultados teoricos con datos electroencefalogracos obtenidos en experimentos
con estos animales.
Menon [81], estudia el fenomeno de las oscilaciones temporales en el cere-
bro, considerando que estas se deben a la interacci on de neuronas inhibitorias
y neuronas excitatorias. Elabora un modelo en el cual considera dos grupos
de neuronas, una que tiene unicamente conexiones inhibitorias y el otro grupo
que tiene unicamente conexiones excitatorias. Estudia la dinamica de estos
dos grupos de neuronas interconectados elaborando un modelo de dos ecua-
ciones integro-diferenciales acopladas.
Nu nez comenta en [89], [92] que la mayora de los modelos de redes neu-
ronales no surgen para estudiar las bases siologicas de los EEG en el cuero
cabelludo sino para estudiar algunas funciones cerebrales, como por ejemplo
la memoria de corto plazo. Tambien menciona que si se quiere explicar
por medio de redes neuronales los patrones rtmicos temporales que se mi-
den con electrodos en el cuero cabelludo (EEG), no basta que se construyan
redes (a un basados en datos anatomicos y siologicos) que produzcan solu-
ciones oscilatorias con la misma frecuencia que se obtienen en los EEG. Por
lo tanto, es necesario considerar la estructura espacial de la red para consid-
erar los potenciales correspondientes y compararlos con los que se obtienen
en los EEG, ya que la magnitud de un potencial depende de la conguracion
geometrica de sus fuentes.
Nu nez elabora un modelo de interaccion neuronal en la corteza a la cual
considera como un medio continuo, donde la columna de corteza es la unidad
fundamental. El modelo consiste en un par de ecuaciones integrales acopladas
que relacionan la actividad sinaptica excitatoria e inhibitoria en una columna
de corteza en un tiempo t con los potenciales de accion que se disparan
en las otras columnas en tiempos anteriores, tomando en cuenta las conexio-
nes que existen entre las columnas y las velocidades de propagacion de los
potenciales de accion, ver [87], [88], [89] y [92].
28
Nu nez elabora el modelo con la nalidad de estudiar las bases siologicas
de los patrones espacio temporales medidos con electrodos ubicados en el
cuero cabelludo. Considera que para el estudio de estos patrones espacio-
temporales la columna de corteza es la unidad a considerar, ya que los EEG se
obtienen con electrodos que captan la actividad electrica promedio de varios
centmetros cuadrados de corteza, ademas de la homogenidad que ofrece la
corteza a nivel de cada capa.
En el siguiente captulo analizaremos con mas detalle este modelo.
29
1.8 MODELOS DE MEDIO CONDUCTOR
En el funcionamiento del cerebro, la actividad electrica es un elemento
fundamental; la comunicaci on entre las neuronas y entre estructuras del
cerebro se realiza a traves de ella. Otro elemento fundamental en el fun-
cionamiento del cerebro es la actividad neuroqumica. Se conoce muy poco
de como interact uan ambos elementos en el funcionamiento del cerebro.
La actividad electrica del cerebro puede ser medida en muchas escalas
espacio-temporales y con diversos grados de resolucion se puede medir la
actividad electrica de una sola neurona, de grupos de neuronas, y usando
electrodos colocados en el cuero cabelludo, la del cerebro en su totalidad.
Se conocen diversos patrones espacio-temporales de la actividad electrica
en distintos niveles, y se desea estudiar las bases siologicas subyacentes a
ellos.
Se han usado diversos modelos: redes neuronales y sistemas cooperativos-
competitivos de interacci on neuronal, para describir los posibles mecanismos
que originan estos patrones espacio-temporales. Pero estos modelos, deben
ir acompa nados de otros modelos que toman en cuenta otras caractersticas
del cerebro como son las propiedades electromagneticas derivadas de la acti-
vacion de fuentes de corrientes impresas en el cerebro y por ello es necesario
estudiar como se propagan las corrientes electricas a traves de los distintos
tejidos del cerebro.
No basta con determinar que ciertas redes neuronales correspondientes a
ciertas estructuras del cerebro producen oscilaciones teoricas que coinciden
con las oscilaciones detectadas con los EEG medidos en diversas partes del
cerebro. Los potenciales dependen de la distribucion de las fuentes y de las
propiedades electricas del medio en que ellos se propagan.
En el estudio del cerebro, como medio conductor, una herramienta im-
portante es la teora del campo electromagnetico que en el nivel microscopico
nos describe la relacion entre cargas, corrientes electricas, campos electricos
y magneticos y en el nivel macroscopico debe incluir ciertas relaciones ex-
perimentales para la permitividad (para aislantes), la conductividad (para
conductores) y la permeabilidad (para materiales magneticos). Pero nueva-
mente, si se quieren elaborar modelos cuyos resultados se puedan relacionar
30
con datos experimentales, es necesario determinar en que escala espacio tem-
poral se esta trabajando.
En cualquier escala espacio temporal que se use, las mediciones elec-
troencefalogracas se obtienen como promedio de la actividad electrica de
un cierto volumen de tejido y en cierto perodo de tiempo y por tanto, las
conductividades, las permitividades y las permeabilidades magneticas de los
tejidos deben considerarse en la misma escala. Ademas las variables de nues-
tro modelo deben estar en la misma escala espacio-temporal que la de las
mediciones.
El problema que se requiere estudiar es determinar la ubicacion y
propiedades de las fuentes de corriente generadas por la actividad del cere-
bro a partir de las mediciones electricas y magneticas efectuadas en el cuero
cabelludo o en otras estructuras del cerebro. Este problema no tiene solucion
unica; en el sentido de que la misma medicion de potencial o campo magnetico
puede ser generada por diferentes distribuciones de fuentes de corriente con-
centradas en la masa cerebral.
El problema inverso no tiene solucion unica, aunque se conozca la dis-
tribucion de potencial (o campo magnetico) en todos los puntos del cuero
cabelludo. Pero la situacion real es todava peor ya que las mediciones del
potencial se obtienen unicamente en un conjunto nito de puntos del cuero
cabelludo donde estan ubicados los electrodos.
El problema es sumamente complejo ya que es necesario considerar la
geometra y propiedades electromagneticas de las distintas regiones que in-
tervienen corteza, craneo, cuero cabelludo, etc. con el objetivo de relacionar
los datos obtenidos en el cuero cabelludo con sus posibles fuentes.
A un el problema directo, es decir, dada la distribucion de fuentes de co-
rriente, la conductividad de los diversos tejidos y la permeabilidad magnetica,
determinar el campo electromagnetico en cualquier punto, ya es bastante
complejo.
Usualmente lo que se hace, en ambos problemas, es introducir simpli-
caciones con base en informacion conocida sobre el cerebro y resolver el
problema con esas simplicaciones. Estas simplicaciones dependen mucho
de la escala en que se esta trabajando.
31
La primera simplicacion importante que se introduce es el considerar
que se puede aplicar al cerebro la teora electromagnetica cuasi-estatica [92].
Es conocido que en un medio conductor con conductividad las cargas se
distribuyen muy rapidamente, es decir, la densidad de carga decrece como
e

o
t
,
donde
o
es la constante dielectrica. Para la conductividad del hueso

o
es
del orden de
1
200
y para la piel y la masa cerebral es mucho menor.
Por este motivo se tiene que

o
e

o
t
y como se conoce experimentalmente que el intervalo de tiempo en que la
densidad de corriente

J en el cerebro vara apreciablemente, es mucho mayor
que

o
, entonces en la ecuacion de continuidad


J +

t
= 0
se puede despreciar

t
y queda


J = 0 .
Ademas se considera que las corrientes que circulan en el cerebro son de
dos tipos: Ohmicas, es decir, generadas por cargas en movimiento a traves
del uido extracelular y corrientes primarias o impresas,

J
p
, que se mueven a
traves de las membranas celulares y aparecen en las zonas activas. Entonces
se tiene

J =

J
p

E ,
donde

E es el campo electrico.
Del desacoplamiento entre el campo electrico y magnetico se tiene que
rot

E = 0 y, por lo tanto,

E = u, donde u es el potencial del campo
electrostatico.
32
De la ecuacion de continuidad simplicada se obtiene que en la masa del
cerebro se cumple la ecuacion
u =
1


J
p
.
Si ademas se considera un sistema de varias capas donde la region
1
ocupada por el cerebro esta cubierta por otras regiones disjuntas
i
(i 2)
que representan el fuido intracraneal, el craneo, la piel, etc., entonces en
cada frontera de separacion entre dos regiones
i
y
i+1
, se deben satisfacer
condiciones del tipo

i
_
u
n
i
_

=
i+1
_
u
n
i
_
+
+

f
i
,
u

= u
+
,
donde
i
es la conductividad en cada
i
, n
i
es el vector unitario normal
exterior a
i
en la parte com un de las fronteras de
i
y
i+1
. El suprandice
o + indica que el valor lmite a la frontera de la cantidad indicada se toma
desde
i
o desde
i+1
respectivamente.
Mediante

f
i
se denota la componente normal de la densidad de corriente
supercial, la cual en este modelo puede estar presente unicamente en la
frontera del cerebro, es decir, en la corteza cerebral.
Si se denota por
e
la region cuya frontera exterior S
e
coincide con el
cuero cabelludo, entonces el problema unico consiste en determinar

J
p
y

f
1
a partir de las mediciones de u sobre S
e
.
Este problema esta mal planteado y por ello se necesita introducir algo-
ritmos de regularizacion en su solucion.
Una de las simplicaciones mas importantes en el estudio del problema
inverso consiste en representar

f
1
y

J
p
en forma de un n umero nito de
dipolos puntuales y, en este caso, el problema se reduce a la localizacion de
sus posiciones y momentos, es decir, a encontrar 6N parametros donde N es
el n umero de dipolos propuestos para la fuente activa [103].
33
1.9 CONCLUSIONES
Como hemos podido ver, existe un gran n umero de tecnicas y metodos
para determinar anomalas de caracter anatomico o funcional en el cerebro,
as como para el estudio de los patrones temporales ritmicos de la actividad
electrica del mismo. Sin embargo, ninguno de estos metodos puede describir
la interacci on neuronal entre diferentes regiones del cerebro ni puede ex-
plicar el origen siologico de los patrones temporales rtmicos de la actividad
electrica.
El objetivo de este trabajo es estudiar modelos que son una generalizacion
de los introducidos por Paul Nu nez en [89], [92] que, en conjunto con los
modelos de medio conductor, permitan describir la evolucion temporal de
la interacci on neuronal masiva en la corteza cerebral y tambien dar alguna
explicacion matematicamente fundamentada de los orgenes siologicos de
los patrones temporales rtmicos de la actividad electrica.
Esperamos ademas que este tipo de trabajo sirva como fundamento para
el desarrollo de software mas apropiado para el analisis clnico de los EEG.
34
Captulo 2
MODELACI

ON GLOBAL DE LA ACTIVI-
DAD SIN

APTICA DE LA CORTEZA CERE-


BRAL
2.1 INTRODUCCI

ON
Para el estudio de las correlaciones existentes entre ciertos estados -
siologicos y las mediciones electroencefalogracas a nivel de cuero cabelludo
o de corteza se han elaborado diversos modelos de interacci on neuronal a
nivel de corteza-talamo. Estos modelos se pueden dividir, grosso modo, en
modelos locales, modelos globales y modelos mixtos.
En los modelos locales [33], [34], [75], [76], [77], [95], se tratan de explicar
las propiedades espacio-temporales de los EEG con base en propiedades a
nivel de neurona, redes neuronales discretas o redes neuronales distribuidas
en el rango de milmetros; las propiedades temporales de los EEG son deter-
minadas por los retrasos sinapticos como son los tiempos de respuesta y de
decrecimiento de los potenciales postsinapticos.
En los modelos globales [87], [88], [89], [90], [92], se toman como ele-
mento importante los sistemas de bras corticorticales (cuyas longitudes se
encuentran en el rango de centmetros) y el hecho de que la corteza es una
estructura cerrada. En estos modelos se considera que el EEG medido so-
bre el cuero cabelludo es fundamentalmente el resultado de la interacci on de
neuronas corticales a traves de los potenciales de accion. Se considera que
35
ciertos patrones espacio-temporales de los EEG se pueden explicar tomando
en cuenta los retrasos debido a la velocidad nita de propagacion de los po-
tenciales de accion que viajan por las bras corticorticales y por el hecho de
que la corteza es una estructura cerrada.
Nu nez considera [92] que los modelos locales pueden ser importantes en
ciertos estados siologicos del cerebro y que en otros casos, como en aquellos
que interviene un mnimo de actividad cognitiva (sue no, coma, anestesia) se
pueden explicar con los modelos globales; pero que dada la extrema com-
plejidad de los interacciones neuronales se requieren modelos que toman en
cuenta la interaccion neuronal en las diversas escalas espacio-temporales [64],
[65], [66], [67], [68].
En este captulo analizaremos el modelo global elaborado por Nu nez. Este
modelo sera el punto de partida para la elaboracion de nuestro modelo. El
modelo describe la evoluci on de la actividad sinaptica en la corteza y consiste
en un par de ecuaciones integrales que relacionan la actividad sinaptica en
cada columna de corteza en un instante de tiempo t con los potenciales de
accion que se generan en tiempos anteriores en las demas columnas de corteza,
tomando en cuenta las conexiones que existen entre las columnas de corteza
y las velocidades de propagacion de los potenciales de accion. Tambien se
pueden tomar en cuenta los retrasos sinapticos o incluir circuitos locales,
convirtiendolo en un modelo local-global mas completo.
Con el modelo global, sin tomar en cuenta los retrasos locales, se estudia
bajo que condiciones se tienen soluciones de tipo ondulatorio y se comparan
estas soluciones con los datos obtenidos a traves del EEG. Sus resultados
teoricos coinciden con los obtenidos experimentalmente para el ritmo
pero no incluye otros estados siologicos.
2.2 BASES FISIOL

OGICAS PARA LA MODELACI

ON DE
LA ACTIVIDAD SIN

APTICA EN LA CORTEZA
CEREBRAL
La corteza cerebral es un sistema muy complejo que presenta interacciones
en distintos niveles: neurona, grupos de neuronas y entre grupos de neuronas.
Aun as la corteza presenta ciertas caractersticas anatomicas y siologicas
36
que permiten elaborar modelos de interacci on neuronal cuyas variables y
parametros se pueden correlacionar con las medidas electroencefalogracas
obtenidas en el cuero cabelludo.
El modelo que presentaremos toma como unidad fundamental la columna
de corteza y pretende describir las interacciones entre las columnas de corteza,
a traves de sus interconexiones y la interaccion de la corteza con otras estruc-
turas del cerebro (principalmente el talamo); mas precisamente se describira
la evoluci on espacio-temporal de la actividad sinaptica de las columnas de
corteza.
Los elementos del modelo son:
a) h

(x, t) La densidad de sinapsis activas o de actividad sinaptica (+


para las sinapsis de tipo excitatorio, para las de tipo inhibitorio), en
la columna x en el tiempo t. h

(x, t) representa el n umero de sinapsis


activas por cm
3
en la columna x en el tiempo t (1/cm
3
)
b) g(x

, t) La fraccion del total de neuronas de la columna x

que gene-
ran potenciales de accion en el tiempo t (adimensional)
c) R

(x

, x, v) El n umero de conexiones sinapticas por cm


3
en la columna
x por unidad de area en x

y por unidad de velocidad, es decir,


R

(x

, x, v)dx

dv representa el n umero de conexiones sinapticas por cm


3
en la columna x producidas por las neuronas que se encuentran en las
columnas de x

a x

+ dx

y por cuyos axones los potenciales de accion


viajan con velocidad entre v y v +dv (+ para las conexiones de tipo
excitatorio, para las de tipo inhibitorio).
d) S

(x) La densidad de sinapsis en la columna x (+, para las sinapsis


excitatorias, para las inhibitorias) (1/cm
3
). Se tiene que:
_

0
_
S
R

(x

, x, v)dx

dv = S

(x) ,
donde S es la supercie de la corteza.
37
e) F

(v) La fraccion del total de neuronas de la corteza por unidad de


velocidad (seg/cm), es decir, F

(v)dv representa la fraccion del total de


neuronas de la corteza que generan su potencial de accion con velocidad
entre v y v +dv, (+ para las conexiones sinapticas excitatorias, para
las inhibitorias).
f) h
0

(x, t) La densidad de sinapsis activas o de actividad sinaptica ( +


para las sinapsis de tipo excitatorio, para las de tipo inhibitorio),
en la columna x en el tiempo t. Actividad sinaptica producida por los
potenciales de accion que se generan en otras estructuras del cerebro,
fundamentalmente el talamo y que llegan a la columna x en el tiempo
t. h
0

(x, t) representa el efecto producido en la columna x en el tiempo


t por las estructuras internas del cerebro que tienen conexiones en la
columna x.
Con estas deniciones es facil ver que si S es la supercie de la corteza
cerebral, entonces se tienen las ecuaciones:
h
+
(x, t) = h
o
+
(x, t) +
_

0
_
S
R
+
(x

, x, v)g(x

, t
d(x, x

)
v
) dx

dv , (2.1)
h

(x, t) = h
o

(x, t) +
_

0
_
S
R

(x

, x, v)g(x

, t
d(x, x

)
v
) dx

dv , (2.2)
donde d(x, x

) es la distancia geodesica entre dos puntos de la corteza S.


Este sistema de ecuaciones integrales nos dice que la densidad de actividad
sinaptica tiene dos componentes. La primera de ellas es debida al input
que reciben la corteza y las bras corticorticales proveniente de estructuras
interiores durante un estado siologico jo. La componente integral expresa
la idea de que los potenciales de accion que se disparan en la columna x

se
trasladan a traves de las bras corticorticales causando actividad sinaptica
en la columna x en un tiempo posterior que depende de la distancia que
separa x de x

y de la velocidad de propagacion de los potenciales de accion.


38
En general esta distancia no tiene que coincidir con la euclideana aunque
puede ser considerada como tal para el analisis cualitativo.
A continuaci on enumeraremos las hipotesis de trabajo y las principales
consideraciones anatomicas para el trabajo con este modelo.
1. No estan considerados los retrasos debidos a la transmision sinaptica
retrasos locales sino, unicamente el debido a la velocidad nita de
propagacion de los potenciales de accion a lo largo de los axones (bras
corticorticales).
2. En el modelo (2.1), (2.2) se desprecia la existencia de circuitos de
retroalimentacion entre la corteza y el talamo ya que el n umero de -
bras corticorticales es mucho mayor que las bras talamocorticales. En
efecto las primeras representan el 99% del total [72]. No resulta dcil
incluir en este modelo global la presencia de estos circuitos de retro-
alimentacion. Un ejemplo importante de estos circuitos es el circuito
cortico-estriato-nigro-t alamocortical asociado a la actividad motora.
3. Las neuronas corticales estan colocadas en columnas que presentan una
gran homogeneidad en su distribucion espacial con respecto a la pro-
fundidad. Esto quiere decir que es imposible distinguir entre dos cortes
perpendiculares realizados en dos secciones diferentes de la corteza cere-
bral. Por este motivo podemos considerar que la corteza tiene una es-
tructura estraticada uniforme compuesta por seis capas debido a las
diferencias en las densidades relativas de diferentes tipos de neuronas
localizadas a distintas profundidades corticales y que en una primera
aproximacion las conexiones en el plano de la corteza son del mismo
tipo en todas las direcciones y por ello solo dependen de la distancia
entre las columnas consideradas es decir:
R

(x

, x, v) = R

(d(x, x

), v) . (2.3)
Las neuronas corticales se pueden clasicar de acuerdo con la forma
del cuerpo celular, por la longitud de su axon y por la extension y dis-
tribucion espacial del arbol dendrtico. Ademas del tipo de transmisor
39
que libera, el blanco axonal, el tipo de sinapsis, etc. Para un estudio
mas detallado sobre esta tema recurrir a [82].
En primera aproximaci on, las neuronas corticales las dividiremos en
dos grandes tipos: excitatorias (neuronas piramidales y estrelladas es-
pinosas) e inhibitorias (todas las interneuronas). Las interneuronas
inhibitorias se dividen en varios tipos y se consideran que pueden tener
varias escalas espaciotemporales. Pero en nuestro caso tomaremos que
la inhibicion ocurre rapidamente.
Las piramidales tienden a ocupar vol umenes cilndricos con axones y
dendritas alineadas perpendicularmente a la supercie cortical y aproxi-
madamente de 2/3 a 3/4 de las neuronas corticales son de este tipo.
Las neuronas estrelladas ocupan volumenes mas esfericos.
El cuerpo celular de las neuronas ocupa alrededor de un 10% de la
supercie neuronal. La mayor parte del area supercial de la neurona
esta compuesta por sus ramicaciones dendrticas. El n umero de ramas
dendrticas que parten de una neurona y que intersectan a una super-
cie esferica concentrica, centrada en el cuerpo celular de la neurona,
decrece exponencialmente seg un una ley del tipo:
N umero de ramas exp( distancia radial) donde
1
(cm) es la
escala caracterstica de longitud que determina el decrecimiento en e
1
veces del n umero total de conexiones corticales a partir de una neurona.
Por ejemplo, para las celulas estrelladas y las dendritas basales de las
celulas piramidales en las cortezas visual y motora del gato y el raton
se ha comprobado experimentalmente que = 350 cm
1
.
La relacion para el decrecimiento de las ramas generadas a partir de
una dendrita es de orden polinomial en lugar de exponencial.
4. Las interconexiones entre neuronas corticales pueden ser divididas en
dos grandes grupos: las conexiones intracorticales que son de rango
corto y que tienen una longitud promedio de menos de 1 mm en hu-
manos y las conexiones corticorticales que tienen una longitud promedio
de hasta varios centmetros en humanos.
La materia blanca subcortical esta compuesta por las bras de aso-
ciacion corticorticales que estan ubicadas paralelamente a la supercie
40
cortical (Fig. #7).
Mientras que las conexiones intracorticales pueden ser tanto excitato-
rias como inhibitorias, las bras de asociacion (axones de las celulas
piramidales) que constituyen la mayor parte de la materia blanca son
solamente conexiones de tipo excitatorio. Las neuronas piramidales que
envan axones a otras regiones interiores del cerebro como el talamo,
terminan unicamente en sinapsis excitatorias.
En las neuronas piramidales existen otro tipo de neuronas intracorti-
cales que tambien terminan en sinapsis excitatorias. Sin embargo la
cantidad de sinapsis excitatorias en humanos realizadas por las bras
de asociacion (corticorticales) es mucho mayor que las que son pro-
ducidas por axones intracorticales, aproximadamente el 80% del total
de las sinapsis excitatorias son por las bras de asociacion. Aunque en
ratones es del orden del 50%.
Para mayor informacion sobre las bras de asociacion se puede consul-
tar [72].
5. La mayora de las bras de asociacion mielinadas tienen diametros entre
1 y 2 y en ellas las velocidades de los potenciales de accion son
proporcionales al diametro y uct uan entre 6 y 12 m/seg.
6. El area de la supercie total de ambas mitades del cerebro, las cuales
estan separadas por el cuerpo calloso es del orden de 1600 cm
2
. Las 2/3
partes de esta supercie estan en las suras incluyendo la sura sagital
que separa las dos mitades del cerebro. De estas dos terceras partes
la mitad del area esta contenida en las peque nas suras incluyendo la
sura sagital. Esto nos dice que el area efectiva del medio donde se
propagan las ondas es diferente de la supercie cortical.
Un problema importante en los modelos globales del EEG consiste en
saber cuando ambas mitades del cerebro deben ser consideradas por
separado. La materia blanca esta formada por bras de aferentes y
eferentes que van y vienen del interior del cerebro y la medula espinal,
junto con bras de asociacion que conectan diferentes areas corticales
41
y bras comisurales que conectan las dos mitades del cerebro funda-
mentalmente a traves del cuerpo calloso.
En humanos el n umero total de bras comisurales que van de un he-
misferio a otro del cerebro a traves del cuerpo calloso es del orden de
2 10
8
, la cual es signicativamente menor que el n umero de bras de
asociacion que entran a la corteza, que es del orden de 10
10
. Esto hace
pensar que las bras comisurales permiten una conexion muy debil en-
tre los dos hemisferios cerebrales, por lo cual parece ser que el analisis
de los fenomenos ondulatorios debidos a la actividad cerebral debe res-
tringirse a un solo hemisferio que puede identicarse con la cuarta parte
de un elipsoide de revoluci on.
El cerebro humano tiene 45cm de circunferencia (sin contar las suras)
de la supercie: del polo occipital al polo frontal, a lo largo de la lnea
media. Esta idea resulta consistente con los resultados experimentales
obtenidos en pacientes a quienes se les ha medido la frecuencia del ritmo
con los dos hemisferios acoplados y con cuerpo calloso cortado. Si
los dos hemisferios acoplados se comportaran como un sistema unico
se esperara que al efectuar el corte en el cuerpo calloso hubiera un
signicativo incremento de la frecuencia del ritmo , lo cual no ocurre.
7. Los potenciales del EEG medidos en el cuero cabelludo se deben a una
actividad sincronica de neuronas corticales que cubren un area de al
menos varios centmetros cuadrados de corteza. Por este motivo la
medicion del EEG corresponde a un nivel jerarquico macroscopico de
modelacion donde la homogeneidad e isotropa son dos consideraciones
importantes. En cambio, del hecho que las conexiones corticorticales
son inhomogeneas a niveles jerarquicos peque nos se concluye que los
modelos de actividad medida con microelectrodos requiere la inclusion
de parametros de conexion preferencial.
Como las neuronas piramidales generan grandes momentos dipolares y
estan orientadas perpendicularmente a la supercie de la corteza, ellas
son capaces de producir corrientes sincronizadas de suciente magnitud
para ser medidas sobre el cuero cabelludo. Debido a esto y a la superio-
ridad numerica de las neuronas piramidales junto con el hecho de que
42
son ellas las que producen la mayor parte de sinapsis excitatorias en la
corteza a traves de sus axones (bras corticorticales), es que son estas
neuronas las principales responsables de la medicion del EEG sobre el
cuero cabelludo.
De aqu concluimos que para una primera modelacion de la contribucion
global de la corteza al EEG se debe considerar la actividad sinaptica ex-
citatoria producida por las neuronas piramidales as como la actividad
sinaptica inhibitoria producida sobre ellas por las neuronas estrelladas.
Como mencionamos al inicio de este captulo, en esta tesis nos dedi-
caremos al estudio de modelos teoricos de la actividad global de la
corteza cerebral que dan lugar al EEG. Estos modelos tienen en cuenta
las consideraciones anatomicas que hemos descrito en los puntos 1-7
anteriores.
A diferencia de ellos, los modelos de circuitos locales deben incluir
parametros de conexion preferenciales, en lugar de la homogeneidad
que se considera en los modelos de actividad global, lo cual se pone
de maniesto en la seleccion de las funciones R

(x

, x, v) para cada
va del circuito. Si los circuitos son peque nos puede considerarse que
la velocidad de propagacion v es innita no siendo as en los circuitos
en que aparecen interacciones de largo alcance, en los cuales el tiempo
que se demora al viajar un potencial de accion de un lugar a otro del
circuito puede ser del orden de las constantes de tiempo de las neuronas
piramidales.
Por otra parte, como ya mencionamos en el punto 1, los modelos lo-
cales deben considerar los retrasos temporales debido a la transmision
sinaptica, que son mas peque nos que los retrasos debidos a la veloci-
dad nita de propagacion de los potenciales de accion a traves de los
axones, y por ello no se consideran en los modelos globales.
43
2.3 DESCRIPCI

ON Y SIMPLIFICACIONES EN EL
MODELO GLOBAL DE ACTIVIDAD SIN

APTICA EN
UNA BANDA DE CORTEZA.
Para evitar repeticiones innecesarias, en este captulo el subndice + siem-
pre se referira a las sinapsis de tipo excitatorio y el subndice a las de tipo
inhibitorio
Aplicaremos el modelo general (2.1), (2.2) al estudio de la actividad del
EEG producida por una banda innitamente delgada de la corteza que por
conveniencia, supondremos innitamente larga.
Para el analisis cualitativo obviaremos la geometra de la corteza y supon-
dremos que la banda coincide con una recta.
En este caso, que llamaremos el caso unidimensional, los elementos del
modelo son los mismos, solo cambian las unidades con que se trabajara. As,
h

(x, t) representara el n umero de sinapsis activas por cm


2
en la columna
x en el tiempo t (1/cm
2
). R

(x

, x, v) representar a el n umero de sinapsis,


por cm
2
en la columna x en el tiempo t por unidad de longitud en x

y por
unidad de velocidad (seg/cm
4
). Es decir, R

(x

, x, v)dx

dv representara el
n umero de sinapsis, por cm
2
en la columna x en el tiempo t producidas por
las neuronas que estan ubicadas desde la columna x

hasta la columna x

+dx

y por cuyos axones, los potenciales de accion viajan con velocidad entre v
y v + dv, h
0

(x, t) representar a el n umero de sinapsis activas en la columna


x por cm
2
, esta actividad sinaptica es la producida por los potenciales de
accion que se generan en estructuras internas del cerebro, principalmente el
talamo y que llegan en el tiempo t a la columna x, g(x

, t) seguira siendo una


cantidad sin dimensiones.
Todas las complicaciones del sistema de conexiones intracorticales e in-
tercorticales estan escondidas en la representacion de las funciones R
+
y
R

.
Introduciremos algunas hipotesis adicionales que nos permitiran obtener
una expresion para estas funciones que al menos cualitativamente reune las
caractersticas principales de este sistema de conexiones.
44
Hipotesis 1
Comenzaremos suponiendo que cada columna esta constituida por una
cantidad nita N (que no depende de la columna) de sistemas de bras que
se superponen.
En primera aproximacion se podra considerar que N = 6 corresponde a
la distribucion de las neuronas en las 6 capas en que usualmente se divide la
corteza.
Hipotesis 2
Como las sinapsis inhibitorias se producen solo a nivel local, considera-
remos que la densidad de actividad sinaptica inhibitoria en una columna de
corteza x en un tiempo t se produce por los potenciales de accion que se ge-
neran en las columnas cercanas a la columna x en tiempos anteriores, es
decir, las columnas ubicadas fuera de una vecindad de la columna de corteza
x no contribuyen a la actividad sinaptica inhibitoria en la columna x.
Es pertinente mencionar que Nu nez enfoca esta cuestion de manera dife-
rente: considera que la velocidad de propagacion de los potenciales de accion
que viajan por las bras que tienen conexion sinaptica de tipo inhibitorio
es innita. Esta hipotesis la justica por el hecho de que la distancia que
recorren los potenciales de accion por estas bras es muy peque na. Nosotros
consideramos que esta hipotesis no reeja que las sinapsis inhibitorias se pro-
ducen solo a nivel local, lo que reeja es que el efecto de los potenciales
de accion que viajan por las bras que tienen conexion sinaptica de tipo
inhibitorio es sentida instantaneamente en las columnas donde se tienen
estas sinapsis inhibitorias. En realidad, para tener en cuenta el hecho de
que las sinapsis inhibitorias se producen solo a nivel local, debemos con-
siderar que los potenciales de accion que viajan por las bras que tienen
conexion sinaptica de tipo inhibitorio, recorren esas distancias en tiempos
mas peque nos que los usados por los potenciales de accion que viajan por
las bras de largo alcance. Mas adelante estudiaremos un modelo que tome
en cuenta esta hipotesis.
Desde el punto de vista matematico, nuestra hipotesis (el suponer que
la actividad sinaptica inhibitoria en una columna de corteza es afectada
45
unicamente por los potenciales de accion que se generan en columnas cer-
canas) nos conducira a estudiar, en el caso lmite, un proceso global de
propagacion de ondas de actividad sinaptica inhibitoria modulada por un
proceso local de propagacion de ondas de actividad sinaptica inhibitoria;
mientras que en el caso de Nu nez, lo que se estudia es un proceso global
de propagacion de ondas de actividad sinaptica excitatoria acoplada con un
proceso estacionario de actividad sinaptica inhibitoria.
De esta forma deniremos, para cada n = 1, ..., N:
F
n

(v) - La fraccion del total de neuronas de la corteza por unidad de ve-


locidad (seg/cm) cuyos potenciales viajan por las bras del sistema
n-esimo. Es decir, F
n

(v)dv representara la fraccion del total de neu-


ronas de la corteza cuyos potenciales viajan por las bras del n-esimo
sistema con velocidad entre v y v +dv. Supondremos que esta cantidad
no depende de en cual columna se ubiquen las neuronas.
Ahora la funcion R

(x

, x, v) se puede representar en la forma


R

(x

, x, v) =
N

n=1
R
n

(x

, x, v) . (2.4)
R
n

(x

, x, v) (seg/cm
2
) representa la densidad de conexiones sinapticas en
la columna x por unidad de longitud en x

y por unidad de velocidad aso-


ciadas con las bras del n-esimo sistema. As R
n

(x

, x, v)dx

dv representara
el n umero de sinapsis por cm
2
en la columna x producidas por las neuronas
que estan ubicadas desde la columna x

hasta la columna x

+ dx

y cuyos
potenciales de accion viajan por el n-esimo sistema de bras con velocidad
entre v y v + dv.
Supondremos que R
n

se representa en la forma
R
n

(x

, x, v) = r
n

(x

, x)F
n

(v) , (2.5)
donde r
n

(x

, x) (1/cm
3
) sera la densidad de conexiones sinapticas en la
columna x, asociadas al n-esimo sistema de bras, por unidad de longitud en
x

, as r
n
(x

, x)dx

representara el n umero de sinapsis por cm


2
en la columna
x producidas por neuronas que estan ubicadas desde la columna x

hasta la
columna x

+ dx

y cuyos axones estan ubicados en el n-esimo sistema de


bras.
46
Ahora r
n

(x

, x) se puede escribir como el producto de dos factores


r
n

(x

, x) = t
n

(x

, x)S
n

(x) , (2.6)
donde t
n
(x

, x) (1/cm) representa el n umero de neuronas por unidad de lon-


gitud en x

, cuyos axones establecen conexion sinaptica en la columna x y


dichos axones se encuentran en el n-esimo sistema de bras, S
n

(x) representa
la densidad de sinapsis (1/cm
2
) en la columna x, producida por neuronas
cuyos axones se encuentran en el n-esimo sistema de bras. De (2.6) se tiene
que R
n

se puede escribir como el producto de tres factores


R
n

(x

, x, v) = t
n

(x

, x)S
n

(x)F
n

(v) . (2.7)
Ahora, haremos la siguiente suposicion
Hipotesis 3
La densidad de bras representadas por la funcion t
n

y que conectan
neuronas de la columna x

con la columna x es igual a la densidad de bras


que conectan neuronas de la columna x con x

. Esta hipotesis es fundamental


para la simplicacion del modelo (2.1), (2.2) y signica que
t
n

(x

, x) = t
n

(x, x

) . (2.8)
Ya hemos comentado que la funcion t
n

(x

, x) decrece exponencialmente
con la distancia entre x

, y x. Para que se cumpla la propiedad (2.8) supon-


dremos ademas que:
Hipotesis 4
La funcion t
n

(x

, x) depende unicamente de la distancia entre los puntos


x

y x en la forma:
t
n

(x

, x) =

n

2
e

|x

x|
, (2.9)
donde (
n

)
1
(cm) es la escala longitudinal que determina el decrecimiento
de conexiones entre dos puntos de la corteza.
47
De (2.4) a (2.9) obtenemos
R

(x

, x, v) =
1
2
N

n=1
S
n

(x)
n

F
n

(v)e

|x

x|
. (2.10)
Hipotesis 5
En primera aproximaci on supondremos que cada sistema de bras esta
caracterizado por una velocidad v
n

de propagacion de potenciales de accion.


En este caso:
F
n

(v) = (v v
n

) . (2.11)
Finalmente obtenemos
R

(x

, x, v) =
1
2
N

n=1
S
n

(x)
n

(v v
n

)e

|x

x|
. (2.12)
Pasemos ahora a imponer las restricciones que exigiremos a la funcion
g(x

, t).
Hipotesis 6
Los potenciales de accion que se generan en la columna x

en el instante
t dependen de la densidad de actividad sinaptica - potenciales postsinapti-
cos - y de la intensidad de la actividad neuroqumica (concentraciones de
neurotransmisores) que se realice en dicha columna en ese instante.
En este trabajo solo consideraremos la dependencia de g con respecto a
h
+
y h

, es decir
g(x

, t) = G(h
+
(x

, t), h

(x

, t)) , (2.13)
donde la funcion G es suave y tiene un comportamiento sigmoidal cuya forma
exacta es muy dcil de predecir aunque esto no es importante para el analisis
cualitativo que llevaremos a cabo posteriormente.
48
Es decir, la funcion G(h
+
, h

) es creciente con respecto a h


+
para cada
h

jo y decreciente con respecto a h

para cada h
+
jo.
Ademas existen curvas de nivel
(h
+
, h

) = , (h
+
, h

) = , (2.14)
tales que
G(h
+
, h

) =
_

_
0 , si (h
+
, h

) < ,
0 < G < 1 , si < (h
+
, h

) < ,
1 , si (h
+
, h

) > .
(2.15)
Para cada h

jo (respectivamente h
+
jo) las funciones G(, h

) (resp.
G(h
+
, )) deben tener un comportamiento sigmoidal usual.
Mas adelante propondremos una expresion explcita para las curvas de
nivel (2.14).
Las relaciones sigmoidales son muy frecuentes en los modelos del sistema
nervioso. Por ejemplo, tambien existe una relacion de este tipo entre las
concentraciones de neurotransmisores y las frecuencias de disparo de las neu-
ronas o tambien la frecuencia de actividad sinaptica.
Todas las hipotesis anteriores nos conducen a una simplicacion del mo-
delo determinado por las ecuaciones (2.1) y (2.2)
h
+
(x, t) = h
o
+
(x, t)
+
1
2

N
n=1
S
n
+
(x)
n
+
_

n
+
|x

x|
G(h
+
(x

, t
|x

x|
v
n

), h

(x

, t
|x

x|
v
n

))dx

,
(2.16)
h

(x, t) = h
o

(x, t)
+
1
2

N
n=1
S
n

(x)
n

_
x+
x
e

|x

x|
G(h
+
(x

, t
|xx

|
v
n

), h

(x

, t
|x

x|
v
n

))dx

,
(2.17)
49
donde le parametro > 0 corresponde al caracter local de la actividad inhi-
bitoria.
Sustituyendo (2.13) en (2.16) y (2.17) obtenemos
h
+
(x, t) = h
o
+
(x, t)
+
1
2

N
n=1
S
n
+
(x)
n
+
_

n
+
|x

x|
g(x

, t
|x

x|
v
n
+
)dx

,
(2.18)
h

(x, t) = h
o

(x, t)
+
1
2

N
n=1
S
n

(x)
n

_
x+
x
e

|x

x|
g(x

, t
|xx

|
v
n

)dx

.
(2.19)
En el sistema (2.18), (2.19), existen un conjunto de simplicaciones no
mencionadas explcitamente con anterioridad. Consideramos que es impor-
tante explicar estas simplicaciones, ya que ademas de provocarnos algunas
confusiones, el considerarlas nos permitira la construccion de un modelo mas
detallado, el cual tambien consistira de un sistema de ecuaciones integrales.
Este sistema se podra transformar en un sistema de ecuaciones diferenciales
parciales de tipo hiperbolico en donde podremos analizar con mayor detalle
las distintas fuerzas que act uan en el medio cortical. Es pertinente men-
cionar que al intentar transformar el sistema (2.18), (2.19), en un sistema de
ecuaciones diferenciales hiperbolicas nos surgieron algunas complicaciones
que no permitieron dicha transformacion.
Algunas de las simplicaciones introducidas en el sistema (2.18), (2.19) y
no mencionadas por Nu nez son:
No distingue por capas la densidad de actividad sinaptica ni la generacion
de los potenciales de accion; este hecho nos obliga a considerar que el efecto
producido en la actividad sinaptica en una columna x en un instante t, pro-
ducido por los potenciales de accion que se generan en tiempos anteriores en
las demas columnas, se distribuye de manera uniforme sobre cada capa de
la columna x (en cada capa el efecto total se dividira por N, donde N es
el n umero de capas). A nivel de columna tampoco distingue la contribuci on
de la actividad sinaptica de cada capa en la columna x a la generacion de
50
los potenciales de accion en esa columna. Otro problema de estos modelos
es que tampoco distinguen la actividad sinaptica producida por neuronas de
diferente clase.
En la seccion siguiente presentaremos otros modelos que subsanan algunas
de estas simplicaciones.
2.4 ALGUNOS MODELOS ALTERNATIVOS AL MODELO
DE NU

NEZ
En esta seccion analizaremos algunos modelos alternativos al modelo de
Nu nez. Estos modelos subsanan algunas de las simplicaciones mencionadas
en la seccion anterior. Tambien analizaremos brevemente la relacion de estos
modelos con el modelo de Nu nez y las relaciones que tienen entre s.
1. El modelo mas general de capas sera considerar todas las interacciones
que se pueden establecer entre todas las capas de cada par de columnas,
as obtendramos el sistema de 2N
2
ecuaciones integrales siguiente para
un modelo de N capas.
h
ij

(x, t) = h
0j

(x, t)
+
_

0
_

R
ij

(x

, x, v)g
ij
(x

, t
|xx

|
v
ij
)dx

dv ,
(2.20)
donde:
h
ij

(x, t) La densidad de actividad sinaptica en la j-esima capa de


la columna x en el tiempo t producida por potenciales de accion
que se generan en las otras columnas en tiempos anteriores y que
viajan por el i-esimo sistema de bras, junto con la provocada por
los potenciales de accion que se disparan en tiempos anteriores en
estructuras interiores del cerebro.
h
0j

(x, t) La densidad de actividad sinaptica en la j-esima capa de


la columna x producida por potenciales de accion que se generan
51
en estructuras internas del cerebro y que tienen conexion sinaptica
con la capa j-esima de la columna x.
R
ij

(x

, x, v) El n umero de conexiones sinapticas/cm


2
en la j-esima
capa de la columna x por unidad de longitud en la capa i-esima
de la columna x

y por unidad de velocidad.


g
ij
(x

, t) La fraccion del total de neuronas de la capa i-esima de


la columna x

que generan potenciales de accion en el tiempo t y


que tienen contacto sinaptico con neuronas de la capa j-esima de
las otras columnas.
Con respecto al modelo de Nu nez se tienen las siguientes relaciones
R

(x, t) =
N

i=1
N

j=1
R
ij

(x, t) , (2.21)
g
ij
(x, t) =
ij
(x)g(x, t) , (2.22)
h

(x, t) =
N

i=1
N

j=1
h
ij

(x, t) , (2.23)
donde
ij
(x) es un coeciente entre 0 y 1 que indica la parte de g(x, t)
que se disparan en la capa i-esima de la columna x y que llegan a la
capa j-esima de las otras columnas.
2. Otra alternativa sera considerar
h
j

(x, t) = h
0j

(x, t)
+
1
N
_

0
_

R
j

(x

, x, v)

N
i=1

ij
g
i
(x

, t
|x

x|
v
i

)dx

dv ,
(2.24)
donde:
52
h
j

(x, t) La densidad total de actividad sinaptica en la j-esima


capa de la columna x en el tiempo t.
g
j
(x

, t) La fraccion del total de neuronas de la capa j-esima de la


columna x

que generan potenciales de accion en el tiempo t.


h
0j

(x, t) La densidad de actividad sinaptica en la capa j-esima de


la columna x producida por potenciales de accion que se generan
en tiempos anteriores en estructuras internas del cerebro.
R
j

(x

, x, v) El n umero de conexiones sinapticas/cm


2
en la columna
x que llegan a la capa j-esima de la columna x, por unidad de lon-
gitud en la columna x

y por unidad de velocidad.

ij
Los pesos que corresponden a la contribuci on de la capa i-
esima de la columna x

a la actividad sinaptica en la capa j-esima


de la columna x. Obviamente 0
ij
1 y podra considerarse

ij
=
ij
(x, x

, t). Tambien se tiene que



N
j=1

ij
1.
Con respecto al modelo 1 se esta eliminando la contribuci on particular
de cada capa de la columna x

a la actividad sinaptica en la capa


j-esima de la columna x, ademas de que se tiene un problema similar
que en el sistema (2.18) (2.19) ya que no se distingue tampoco el efecto
de g
i
(x

, t) en cada capa de la columna x, asumiendo que se distribuye


uniformemente sobre cada capa de x (la contribuci on a la actividad
sinaptica en la capa j-esima de la columna x sera
g

(x

,t)
N
). La ventaja
que se tiene en este modelo es que g
j
(x

, t) depende unicamente de
h
j
+
(x

, t) y h
j

(x

, t); es decir de la actividad sinaptica en esa capa y no


de la actividad sinaptica en todas las capas de esa columna.
Se puede considerar que se cumple la relacion
h

(x, t) =

N
i=1

i
(x)h
i

(x, t) , (2.25)
donde

i
(x) son ciertos pesos positivos tales que

N
i=1

i
(x) = 1.
3. Tambien se puede considerar el siguiente sistema
53

h
j

(x, t) = h
0

(x, t)
+
_

0
_

R
j

(x

, x, v)g
j
(x

, t
|xx

|
v
)dx

dv ,
(2.26)
donde

h
j

(x, t) La densidad de actividad sinaptica en la columna x en el


tiempo t producida por potenciales de accion que se generan en la
capa j-esima de las otras columnas en tiempos anteriores mas la
actividad sinaptica en la columna x producida por potenciales de
accion que se generan en tiempos anteriores en otras estructuras
interiores del cerebro. En este caso no se distingue, como en el
caso 2, la actividad sinaptica en la columna por capas, sino por
los potenciales de accion que provienen de cada capa en otras
columnas.
g
j
(x

, t) La fraccion del total de neuronas de la columna x

que
generan potenciales de accion en el tiempo t y que viajan por las
bras del j-esimo sistema.
h
0

(x, t) La densidad de actividad sinaptica en la columna x en el


tiempo t producida por los potenciales de accion que se generan
en tiempos anteriores en otras estructuras interiores del cerebro.
R
j

(x

, x, v) El n umero de conexiones sinapticas por cm


2
en la
columna x por unidad de longitud en la capa j-esima de la columna
x

y por unidad de velocidad.


El problema que se presenta en este modelo es que g
j
(x, t) depende
de toda la actividad sinaptica que ocurre en la columna x, es decir de

h
1

(x, t), . . . ,

h
N

(x, t)(x, t).


Estos tres modelos y el modelo de Nu nez son las posibilidades mas impor-
tantes que se pueden encontrar en un modelo de N capas. Estos 4 modelos
estan relacionados. El modelo 1 es el modelo mas detallado de los cuatro,
pero es el que incluye mas ecuaciones y parametros que nos dicultaran el
54
estudio del mismo. Estos modelos estan relacionados entre s de la siguiente
manera:
En el modelo 2 se esta considerando la densidad de actividad sinaptica
por capas en cada columna pero sin distinguir la contribuci on a esta actividad
de las distintas capas de las otras columnas, ademas tampoco se distingue
el efecto de una capa de una columna (g
j
(x, t)) sobre cada capa de las otras
columnas, se considera que el efecto (g
j
(x, t)) se distribuye de manera uni-
forme sobre las capas de cada columna afectada. La relacion entre el modelo
2 y el 1 se da a traves de considerar que
g
ij
_
x

, t
|x x

|
v
ij
_
=
ij
g
i
_
x

, t
|x x

|
v
i
_
, (2.27)
i.e. el efecto de la i-esima capa de la columna x sobre la j-esima capa de las
columnas afectadas es independiente de la capa que afecta y se distribuye de
manera uniforme sobre cada capa. Tambien se cumple que
1
N
R
i

(x

, x, v) =
N

j=1
R
ij

(x

, x, v) (2.28)
y por ultimo
h
i

(x, t) =
N

j=1
h
ij

(x, t) . (2.29)
En el modelo 3 se tiene obviamente que
h

(x, t) =
N

i=1
h
i

(x, t) , (2.30)
donde h
+
(x, t) es la densidad total de actividad sinaptica que aparece en
el modelo de Nu nez. Notese, ademas que g
j
(x

, t) = g
j
(x

, t), pero g
j
solo
depende de h
j
+
y h

con respecto a las variables



h
i
+
, h

se tiene que g
j
;
depende de

h
1

, . . . ,

h
N

. Con mas exactitud


g
j
=

G
j
(h
+
, h

) =

G
j
_
N

i=1

h
i
+
, h

i=1

h
i

_
(2.31)
55
y como el modelo de Nu nez se relaciona con el modelo 2 a traves de
h

(x, t) =
N

j=1
h
j

(x, t) , (2.32)
g
j
(x, t) =
g(x, t)
N
. (2.33)
Entonces tambien el modelo (2.18) (2.19) se relaciona con el modelo 1.
El modelo que eligiremos para estudiar sera el modelo 3 ya que es un poco
mas detallado que el de Nu nez y resulta un modelo con menos ecuaciones y
parametros que los otros dos modelos restantes.
En la siguiente seccion desarrollaremos el modelo 3.
2.5 DESARROLLO Y ESTUDIO DE UN MODELO DE LA
ACTIVIDAD SIN

APTICA DE LA CORTEZA
CEREBRAL
En esta seccion desarrollaremos el modelo 3, que como mencionamos en
la seccion anterior es un poco mas preciso que el del sistema (2.18), (2.19),
ademas este sistema se puede transformar en un sistema de ecuaciones dife-
renciales parciales. El modelo tiene tambien una conexion muy clara en el
sistema (2.18), (2.19). En este modelo distinguiremos la contribuci on de cada
capa de cada columna a la actividad sinaptica de una columna de corteza
dada en un instante de tiempo y lo que estudiaremos es la evoluci on espacio-
temporal de esa actividad sinaptica tomando en cuenta la distribucion de
conexiones sinapticas, las velocidades de propagacion de los potenciales de
accion de las neuronas de la capa correspondiente. Para ser mas precisos
introduciremos los elementos de que consiste el modelo.
Sean:

h
j

(x, t) La densidad de actividad sinaptica (potenciales postsinapticos)


en la columna x en el tiempo t, n umero de sinapsis activas/cm
2
, pro-
ducida por potenciales de accion que se generan en las otras columnas y
que viajan por las bras del sistema j-esimo, mas la actividad sinaptica
56
en la columna x producida por potenciales de accion que se generan en
tiempos anteriores en otras estructuras interiores del cerebro.
g
j
(x, t) La fraccion del total de neuronas de la columna x

que generan
potenciales de accion en el tiempo t y que viajan por las bras del
j-esimo sistema.

h
0

(x, t) La densidad de actividad sinaptica en la columna x en el tiempo


t producida por los potenciales de accion que se generan en estruc-
turas interiores del cerebro en tiempos anteriores y que tienen conexion
sinaptica en la columna x.
R
j

(x

, x, v) El n umero de conexiones sinapticas/cm


2
, del j-esimo sis-
tema en la columna x por unidad de longitud en x

y por unidad de
velocidad.
La relacion entre

h
j

(x, t), g
j
(x, t) y h

(x, t), g(x, t) es la siguiente


h

(x, t) =
N

j=1

h
j

(x, t) . (2.34)
La misma idea que se uso para obtener la ecuacion (2.18) se puede aplicar
para obtener un sistema de ecuaciones integrales para

h
j

(x, t). As que para


j = 1, . . . , N

h
j
+
(x, t) =

h
0
+
(x, t)
+
1
2

j
+
S
j
+
(x)
_

j
+
|xx

|
g
j
(x

, t
|x

x|
v
j
+
)dx

.
(2.35)
Para

h
j

(x, t) se tiene

h
j

(x, t) =

h
0

(x, t) +
1
2
S
j

(x)
j

_
x+
x
e

|xx

|
g
j
(x

, t
|x x

|
v
j

)dx

. (2.36)
57
Ahora, sabemos que los potenciales de accion que se generan en cada capa
de cada columna ( g
j
(x, t)) dependen de la actividad sinaptica que existe en
esa columna (no depende unicamente de la actividad sinaptica en esa capa
por la forma en que se denio

h
j

(x, t)) y de la actividad neuroqumica en la


misma columna.
En este trabajo solo consideraremos la dependencia de g
j
(x, t) con res-
pecto a (

h
j

(x, t), j = 1, . . . , N) es decir consideraremos


g
j
(x, t) =

G
j
(
N

i=1

h
i
+
(x, t),
N

i=1
h
i

(x, t)) . (2.37)


La forma exacta de esta dependencia es dcil de predecir, pero cualita-
tivamente consideramos que debe ser de tipo sigmoide en cada variable. As
para cada k = 1, . . . , N y para cada

h
i
+
(x, t), i = k y

h
j

(x, t) jo debemos
tener que

G
j
(

h
1
+
, ...,

h
k1
+
,

h
k
+
, . . . , h
N
+
,

h
1

, . . . ,

h
N

) es una funcion creciente de


tipo sigmoide.
Para cada 1 k N y para cada

h
1
+
, . . . ,

h
N
+
jo debemos tener que

G
j
(

h
1
+
, . . . ,

h
N
+
, ) es una funcion decreciente de tipo sigmoide.
Ademas existen curvas de nivel

j
(

h
1
+
, ...,

h
j
+
, . . . , h
N
+
, h

) =
j
y
j
(

h
1
+
, ...,

h
j
+
, . . . , h
N
+
, h

) =
j
, (2.38)
tales que

G
j
(

h
1
+
,

h
j
+
. . .

h
N
+
, h

) =
_

_
0 , si
j
(

h
1
+
,

h
j
+
. . .

h
N
+
, h

) <
j
,
0 <

G
j
< 1 , si
j
<
j
(

h
1
+
,

h
j
+
. . .

h
N
+
, h

) <
j
,
1 , si
j
(

h
1
+
,

h
j
+
. . .

h
N
+
, h

) >
j
.
(2.39)
Mas adelante propondremos una expresion explcita para las curvas de nivel
(2.38).
Con estas condiciones el sistema (2.35), (2.36) se transforma en
58

h
j
+
(x, t) =

h
0
+
(x, t)
+
1
2

j
+
S
j
+
(x)
_

j
+
|x

x|

G
j
(

N
i=1

h
i
+
(x

, t
|x

x|
v
j
+
),

N
i=1
h
i

(x

, t
|x

x|
v
i
+
)dx

,
(2.40)

h
j

(x, t) =

h
0

(x, t)
+
1
2

S
j

(x)
_
x+
x
e

|x

x|

G
j
(

N
i=1

h
i
+
(x

, t
|x

x|
v
j

),

N
i=1

h
i

(x

, t
|x

x|
v
i

)dx

) .
(2.41)
Como ya hemos mencionado anteriormente consideramos mas adecuado
para el analisis del modelo, transformar el sistema (2.35), (2.36) en un sistema
de ecuaciones diferenciales parciales para

h
j
+
(x, t),

h
j

(x, t). Esto ultimo lo


haremos en la siguiente seccion.
59
2.6 TRANSFORMACI

ON DEL SISTEMA DE ECUACIONES


INTEGRALES EN UN SISTEMA DE ECUACIONES
DIFERENCIALES PARCIALES
Usando la regla de Leibnitz para derivar bajo el signo de la integral,
podemos obtener

h
j

x
,

2
h
j

x
2
,

h
j

t
,

2
h
j

t
2
, no escribiremos estas derivadas ya que
ademas de constar de muchos terminos, no son necesarias para los siguientes
desarrollos. Escribiremos solamente el sistema de ecuaciones diferenciales
parciales resultante, tanto para

h
j
+
como para

h
j

.
Para

h
j
+
se obtiene

2
h
j
+
t
2
+ 2
j
+
v
j
+

h
j
+
t
+ (
j
+
v
j
+
)
2

h
j
+
=
(v
j
+
)
2
_

2
h
j
+
x
2

2(S
j
+
)

(x)
S
j
+
(x)

h
j
+
x
+
_
2((S
j
+
)

(x))
2
S
j
+
(x)(S
j
+
)

(x)
(S
j
+
)
2
(x)
_

h
j
+
_
+
j
+
v
j
+
S
j
+
(x)
_

j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
+
(x, t) .
(2.42)
Para

h
j

se obtiene

2
h
j

t
2
+ 2
j

v
j

h
j

t
+ (
j

v
j

)
2

h
j

=
(v
j

)
2
_

2
h
j

x
2

2(S
j

(x)
S
j

(x)

h
j

x
+
_
2((S
j

(x))
2
S
j

(x)(S
j

(x)
(S
j

)
2
(x)
_

h
j

_
+
j

v
j

S
j

(x)
_

j
+
v
j

g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j

(x, t) + F
j
(x, t, ) ,
(2.43)
donde
F
j
+
(x, t) =
_

2
h
0
+
t
2
+ 2
j
+
v
j
+

h
0
+
t
+ (
j
+
v
j
+
)
2

h
0
+
_
(v
j
+
)
2
_

2
h
0
+
x
2

2(S
j
+
)

(x)
S
j
+
(x)

h
0
+
x
+
_
2((S
j
+
)

(x))
2
S
j
+
(x)(S
j
+
)

(x)
(S
j
+
)
2
(x)
_

h
0
+
_
,
(2.44)
60
F
j

(x, t) =
_

2
h
0

t
2
+ 2
j

v
j

h
0

t
+ (
j

v
j

)
2

h
0

_
(v
j

)
2
_

2
h
0

x
2

2(S
j

(x)
S
j

(x)

h
0

x
+
_
2((S
j

(x))
2
S
j

(x)(S
j

(x)
(S
j

)
2
(x)
_

h
0

_
,
(2.45)
F
j
(x, t, ) =
1
2

v
j

S
j

(x)
_
v
j

g
j
(x , t

v
j

)
+ e

g
j
t
(x , t

v
j

) v
j

g
j
x
(x , t

v
j

)
+
j

v
j

g
j
(x + , t

v
j

)
+ e

g
j
t
(x + , t

v
j

) + v
j

g
j
x
(x + , t

v
j

)
_
.
(2.46)
Con la nalidad de presentar concisamente y mas adecuadamente para
nuestros calculos el sistema (2.42), (2.43), deniremos 4N operadores diferen-
ciales parciales, actuando sobre las funciones de dos variables con derivadas
parciales hasta de segundo orden continuas. Denotaremos estos operadores
con los smbolos L
i,j

, 1 i 2, 1 j N y estaran denidos como sigue


L
1,j

[u] =

2
u
t
2
+ 2
j

v
j

u
t
+ (

)
2
u, (2.47)
L
2,j

[u] = (v
j

)
2
_

2
u
x
2

2(S
j

(x)
S
j

(x)
u
x
+
_
2((S
j

(x))
2
S
j

(x)(S
j

(x)
(S
j

)
2
(x)
_
u
_
,
(2.48)
donde u = u(x, t) es una funcion con derivadas parciales hasta de segundo
orden continuas.
61
Con esta nueva notacion, el sistema (2.42), (2.43) se convierte en el sis-
tema
L
1,j
+
[

h
j
+
] = L
2,j
+
[

h
j
+
]
+
j
+
v
j
+
S
j
+
(x)
_

j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
+
(x, t) ,
(2.49)
L
1,j

h
j

] = L
2,j

h
j

]
+
j

v
j

S
j

(x)
_

v
j

g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j

(x, t) + F(x, t, ) .
(2.50)
Para reducir el sistema a un sistema equivalente mas sencillo de estudiar
haremos uso de los siguientes resultados los cuales son muy faciles de probar
Lema 1 Sean L
i,j

los operadores diferenciales denidos en (2.48) y sean



L
j

los operadores diferenciales parciales denidos por

L
j

[u] =

2
u
t
2
+ 2
j

v
j

u
t
+ (
j

v
j

)
2
u v
j

2
u
x
2
. (2.51)
Entonces

L
j

[ u
j

] =
1
S
j

(x)
_
L
1,j

[u
j

] L
2,j

[u
j

]
_
,
(2.52)
donde
u
j

(x, t) =
u
j

(x, t)
S
j

(x)
.
Lema 2 Sea

L
j

como en el Lema 1, entonces


e

j
+
v
j
+
t

L
j
+
[u
j
+
] =
2,j
+
[ u
j
+
] , (2.53)
e

v
j

L
j

[u
j

] =
2,j

[ u
j

] , (2.54)
62
donde
u
j

(x, t) = e

v
j

t
u
j

(x, t)
y

2,j
+
[u] =

2
u
t
2
(v
j
+
)
2

2
u
x
2
, (2.55)

2,j

[u] =

2
u
t
2
(v
j

)
2

2
u
x
2
. (2.56)
Aplicando el Lema 1 al sistema (2.49), (2.50) ese sistema es equivalente
al sistema

L
j
+
[H
j
+
] =
1
S
j
+
(x)
F
j
+
(x, t) +
j
+
v
j
+
_

j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
, (2.57)

L
j

[H
j

] =
1
S
j

(x)
F
j

(x, t)+
j

v
j

v
j

g
j
(x, t) +
g
j
t
(x, t)
_
+F
j
(x, t, )
1
S
j

(x)
,
(2.58)
donde
H
j
+
(x, t) =

h
j

(x, t)
S
j

(x)
y aplicando el Lema 2 al sistema (2.57), (2.58), este sistema es equivalente a

2,j
+
[

H
j
+
] = e

j
+
v
j
+
t
_
F
j
+
(x, t)
S
j
+
(x)
+
j
+
v
j
+
_

j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
__
, (2.59)

2,j

[

H
j

] = e

v
j

t
_
F
j

(x, t)
S
j

(x)
+
j

v
j

v
j

g
j
(x, t) +
g
j
t
(x, t)
_
+
F
j
(x, t, )
S
j

(x)
_
,
(2.60)
63
donde

H
j

(x, t) = e

v
j

t
H
j

(x, t) .
El sistema (2.57), (2.58) es un sistema de 4N ecuaciones diferenciales par-
ciales no lineales acopladas (recordemos que g
j
(x, t) =

G
j
(

N
i=1

h
i
+
,

N
i=1
h
i

),
donde lo unico que le hemos pedido hasta ahora a

G
j
es que sea una funcion
sigmoide de cada una de las variables

h
i

), ademas, la ecuacion (2.59) de-


pende de un peque no parametro > 0. Este sistema es sumamente complejo
de estudiar, as que para hacer mas tratable el sistema, estudiaremos primero
el caso N = 1, esto signica que se tiene unicamente una sola capa en cada
columna. En este caso el sistema a estudiar es

L
+
[H
+
] =
1
S
+
(x)
F
+
(x, t) +
+
v
+
_

+
v
+
g(x, t) +
g
t
(x, t)
_
, (2.61)

[H

] =
1
S

(x)
F

(x, t) +

g(x, t) +
g
t
(x, t)
_
+F(x, t, )
1
S

(x)
.
(2.62)
Es decir, tenemos dos ecuaciones diferenciales parciales con la ecuacion
(2.62) dependiendo de un parametro peque no > 0, la funcion g depende
unicamente de

h

, de manera sigmoide en cada una de ellas


g(x, t) =

G(h
+
, h

) . (2.63)
En la siguiente seccion estudiaremos el sistema (2.61), (2.62) usando
tecnicas de parametro peque no, es decir, estudiaremos primeramente el sis-
tema degenerado, el sistema (2.61), (2.62) con = 0 , para despues, con
base en este estudio, obtener informacion sobre el sistema no degenerado.
Ademas introduciremos una expresion para

G, que dependera de una sola
variable, la cual es una combinaci on lineal de

h
+
, y

h

, a esta nueva variable


la llamaremos variable de activacion, ya que el hecho de que se generen o no
potenciales de accion en una columna dependen de esta nueva variable.
64
2.7 LA ECUACI

ON DE ACTIVACI

ON PARA LA CORTEZA
CEREBRAL
Sabemos que g(x, t) depende de una manera muy compleja de la actividad
sinaptica excitatoria

h
+
, y de la actividad sinaptica inhibitoria

h

, i.e. g(x, t)
es igual a

G(

h
+
,

), cualitativamente consideramos que



G(.,

) debe ser
una funcion sigmoide creciente de

h
+
, para cada

h

jo y que debe ser una


funcion sigmoide decreciente de

h

para cada

h
+
jo. Este planteamiento
es sumamente general y difcil de estudiar, as que estudiaremos un caso
particular de la dependencia de g con respecto a

h
+
y

h

. El caso que
estudiaremos esta basado en lo siguiente:
1. Si V

representa el valor del potencial postsinaptico en una sinapsis,


entonces V

(x, t) representara la densidad de potencial postsinaptico


en la columna x en el tiempo t.
2. Habra activaci on en la columna x (generacion de potenciales de accion)
cuando V
+
H
+
(x, t) V

(x, t) V
0
, donde V
0
es un cierto umbral
promediado de disparo de la columna x, en caso contrario no habra
activaci on.
3. Si V
+
H
+
(x, t) V

(x, t) es muy grande, habra saturacion de la


columna x en el tiempo t y entonces, no aumentara signicativamente
la actividad de la columna en ese tiempo.
Basados en estos tres puntos consideramos que:
g(x, t) =

G(V
+
H
+
(x, t) V

(x, t)) , (2.64)


donde

G es una funcion sigmoide de una sola variable.

G es una funcion
sigmoide de la densidad de potencial postsinaptico de la columna.
En realidad, como veremos despues, se pueden elegir varias expresiones
cuantitativas para

G.
Llamaremos a la variable u(x, t) = V
+
H
+
(x, t) V

(x, t) variable de
activacion de la columna x.
65
La dinamica espacio-temporal de u(x, t) nos permitira estudiar las zonas
de la corteza que estan activas en un tiempo determinado. Para cada t, las
zonas activas de la corteza estaran caracterizadas por el conjunto
E(t) = {x en la corteza|u(x, t) V
0
} .
Para obtener la ecuacion diferencial parcial que determina la dinamica
de la variable de activacion u(x, t) multiplicamos la ecuacion

L
+
[H
+
] =
1
S
+
(x)
F
+
(x, t) +
+
v
+
[
+
v
+
g(x, t) +
g
t
(x, t)] por V
+
y le restamos V

L
+
[H

]
en ambos lados de la ecuacion, as se obtiene

L
+
[u] = V
+

+
v
+
_

+
v
+
g(x, t) +
g
t
(x, t)
_
+V
+
F
+
(x, t)
S
+
(x)
V

L
+
[H

] . (2.65)
Ademas tenemos la ecuacion para las inhibiciones

[H

] =

g(x, t) +
g
t
(x, t)
_
+
F

(x, t)
S

(x)
+
F(x, t, )
S

(x)
. (2.66)
Como mencionamos en la seccion anterior, primeramente estudiaremos el
caso degenerado ( = 0) del sistema (2.65), (2.66)

L
+
[u] = V
+

+
v
+
_

+
v
+
g(x, t) +
g
t
(x, t)
_
+V
+
F
+
(x, t)
S
+
(x)
V

L
+
[H

] . (2.67)
Ademas tenemos la ecuacion para las inhibiciones

[H

] =
F

(x, t)
S

(x)
. (2.68)
Usando el lema 2, se puede reducir el sistema (2.67), (2.68) al estudio del
sistema equivalente

L
+
[u] = V
+

+
v
+
_

+
v
+
g(u) +
g
u
(u)
u
t
_
+V
+
F
+
(x, t)
S
+
(x)
V

L
+
[H

] , (2.69)
66

(

H

) = e

t
F

(x, t)
S

(x)
, (2.70)
donde

H(x, t) = e

t
H

(x, t) .
Utilizando la denicion de

L,
2

y calculando

L
+
[e

t

H

(x, t)] y re-


ordenando los terminos, obtenemos el sistema

2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+

2
u
x
2
= V
+

+
v
+
_

+
v
+
g(u) + g

(u)
u
t
_
V

t
_
(1
v
2
+
v
2

2
H

t
2
+ 2(
+
v
+

t
+ (
+
v
+

)
2

H

_
+
V
+
S
+
(x)
F
+
(x, t) +
1
v
2

(x,t)
S

(x)
e

t
,
(2.71)

2

H

t
2
= v
2

2

H

x
2
+
e

t
S

(x)
F

(x, t) . (2.72)
Notese que la ecuacion (2.72) es independiente de g, as que este sistema
se puede interpretar como un proceso global de propagacion de ondas de la
variable de activaci on, modulado por un proceso de propagacion de ondas de
las inhibiciones.
67
2.8 CONSTRUCCI

ON DE UN MODELO
COMPARTIMENTADO DE ACTIVACI

ON DE LA
CORTEZA CEREBRAL.
En el modelo que hemos analizado en las secciones anteriores con las
diversas formas propuestas para la distribucion de conexiones se eliminan
los efectos producidos en cada columna por columnas lejanas a ella. La eli-
minacion de los efectos lejanos, se debe a la eleccion de una distribucion
de conexiones que decrece exponencialmente con las distancias entre colum-
nas con la misma escala de decrecimiento, en todas las direcciones sobre la
corteza. Una manera de tomar en cuenta estos efectos lejanos, es considerar
a la corteza cerebral dividida en n compartimentos disjuntos interconectados,
considerando la distribucion de conexiones para cada par de compartimentos
de decrecimiento exponencial, pero con una escala de decrecimiento que de-
pende del par de compartimentos considerados. As, los efectos producidos
en una columna de cierto compartimento estaran clasicados dependiendo de
los compartimentos con que interact ua. En nuestro modelo consideramos que
las velocidades de propagacion de los potenciales de accion no dependen de
los compartimentos que se estan considerando. La division de la corteza
en n compartimentos, ademas de ser una mejor aproximaci on de la corteza
real que la propuesta en las secciones anteriores, nos permite correlacionar
nuestros resultados teoricos con las mediciones reales de actividad cortical.
Ademas nos permitira estudiar el diagrama de conexiones funcional que se
establece en un estado siologico dado. Se podra estudiar, tambien la inter-
relacion que existe entre las distintas areas de la corteza, siguiendo la division
propuesta por el anatomista K. Brodmann (Fig. # 9).
A continuacion describiremos mas detalladamente este modelo.
Como ya hemos mencionado, en el presente modelo consideramos a la
corteza cerebral dividida en n compartimentos ajenos
i
, i = 1, . . . , n. Por
simplicidad y siguiendo las ideas de las secciones anteriores, consideraremos
una banda de corteza en la cual, las ondas que se propagan por ella, tienen
longitud de onda muy peque na con respecto a la longitud de la misma. Con
estas simplicaciones puede pensarse en la corteza como una recta dividida
en n intervalos disjuntos, identicando los dos intervalos innitos como uno
solo (considerando que los efectos de los dos intervalos innitos provocan
68
el mismo efecto sobre los otros intervalos).
Lo que deseamos es relacionar la densidad de actividad sinaptica excita-
toria e inhibitoria en una columna de corteza con los potenciales de accion
que se generan en las otras columnas en tiempos anteriores, pero como te-
nemos dividida a la corteza en n compartimentos, aumentar a el n umero de
ecuaciones a considerar.
A continuacion procederemos a denir las variables y parametros que
intervienen en el modelo, deduciremos las ecuaciones en forma integral y al
igual que en las secciones anteriores transformaremos estas en un sistema de
ecuaciones diferenciales parciales.
Como en las secciones anteriores, el subndice + se referira a las sinapsis
excitatorias y el a las sinapsis inhibitorias.
Sean :
a) h
ij

(x, t) La densidad de sinapsis activas o de actividad sinaptica por


cm
2
en la columna x
j
, en el tiempo t, producidos por los potenciales
de accion que se generan en el compartimento
i
en tiempos anteriores
h
ij

(x, t) representa el efecto de


i
en la columna x
j
en el instante
t (1/cm
2
).
b) f
j

(x, t) La densidad de sinapsis activas por cm


2
en la columna x
j
en el instante t, producidas por los potenciales de accion que se generan
en tiempos anteriores en las estructuras internas del cerebro, prin-
cipalmente el talamo, y que tienen conexion sinaptica con la columna
x
j
. Supondremos que f
j

(x, t) 0 para cada j.


c)
h
j

(x, t) =
n

i=1
h
ij

(x, t) + f
j

(x, t) . (2.73)
Representara la densidad de actividad sinaptica total en la columna x

j
en el instante t, producida por los potenciales de accion generados
en todas las regiones de la corteza y las estructuras internas del cerebro,
principalmente el talamo.
d) R
ij

(x

, x, v) El n umero de conexiones sinapticas por cm


2
en la columna
x
j
por unidad de longitud en x


i
y por unidad de velocidad, es
decir, R
ij

(x

, x, v)dx

dv representa el n umero de conexiones sinapticas


69
por cm
2
en la columna x
j
que provienen de las neuronas que
estan ubicadas desde la columna x

hasta la columna x

+ dx

y por
cuyos axones los potenciales de accion viajan con velocidad entre v
y v + dv.
e) g(x, t) La fraccion del total de neuronas en la columna x que generan
potenciales de accion en el instante t.
f) g
j
(x, t) La fraccion del total de neuronas en la columna x
j
que
generan potenciales de accion en el tiempo t. Obviamente
g(x, t) = g
j
(x, t) para x
j
. (2.74)
Lo que queremos conocer es la evolucion espacio-temporal de la densidad
de actividad sinaptica total en cada columna de cada compartimento de la
corteza (h
ij

(x, t), x
j
, j = 1, . . . , n). Para lograr esto, primero obten-
dremos la evolucion espacio-temporal de la densidad de actividad sinaptica
en cada columna de un compartimento dado de la corteza producida por
la interaccion con otro compartimento de la misma (h
ij

(x, t), x
j
, i, j =
1, . . . , n) y le a nadiremos la producida por las estructuras internas del cerebro
(f
j
+
(x, t), j = 1, . . . , n).
Consideraremos que por cada par de compartimentos
i
,
j
se cumplen
las siguientes hipotesis :
1. Existe una unica velocidad de propagacion, v

, de los potenciales de
accion que viajan de
i
a
j
y que no depende de
i
ni de
j
.
2. La densidad de conexiones (R
ij

(x

, x, v)) depende unicamente de la dis-


tancia entre las columnas y tienen su decrecimiento exponencial, con
cada escala de decrecimiento (
ij

) que solo depende de las regiones

i
,
j
.
R

(x

, x, v) =
n

i=1
R
ij

(x

, x, v), x
j
, (2.75)
donde
70
R
ij

(x

, x, v) =
_

ij

(x

)e

ij

|xx

|
S
j
(x)(v v

) , si x
j
, x


i
0 , en otro caso
(2.76)
R

(x

, x, v) representara el n umero de conexiones sinapticas por cm


2
en
x, por unidad de longitud en x

y por unidad de velocidad. S


j
(x) es la
densidad de conexiones sinapticas en x
j
(1/cm
2
) y
ij

(x

) (1/cm)
es un factor de normalizacion, sujeto a la condicion
n

i=1
_
R

ij

(x

)e

ij

|xx

|
dx

= 1, para cada x
j
. (2.77)
En lo que sigue, identicaremos
i
(i = 1, . . . , n) con el conjunto de
los n umeros reales y si suponemos
ij

(x

) constante;
ij

(x

) =
ij

,
entonces de (2.77) obtenemos :
2
n

i=1

ij

ij

= 1 . (2.78)
Debido al caracter local de las inhibiciones, podemos suponer que

ij

= 0 si i = j.
As, en lo que sigue consideraremos que :

ij
+
=

ij
+
2n
,
jj

=

jj

2
. (2.79)
3. Los potenciales de accion que se generan en la columna x
j
en el
instante t, dependen de la actividad sinaptica total en x
i
en el in-
stante t y de la densidad de la actividad neuroqumica (concentraci on
de neurotransmisores) que se realice en dicha columna en ese instante.
Nosotros solo consideraremos la dependencia de g
i
con respecto a la ac-
tividad total en la columna x en el instante t. Ademas, de la suposicion
de que la actividad inhibitoria en la corteza solo tiene un caracter local,
se concluye que h
ki

(x, t) 0 si k = i.
71
Finalmente como las conexiones aferentes a la corteza son solo excitato-
rias, tenemos que f
j

(x, t) 0 y as obtenemos
g
i
(x, t) = g
i
(
n

k=1
h
ki
+
(x, t) + f
i
+
(x, t), h
ii

(x, t)) . (2.80)


Siguiendo el mismo razonamiento expuesto en las secciones anteriores,
tenemos que :
h
ij

(x, t) =

ij
+
2n
S
j
(x)
_

jj
+
|xx

|
g(x

, t
|x x

|
v
+
)dx

, (2.81)
h
jj

(x, t) =

jj

2
S
j
(x)
_
x+
x
e

jj
+
|xx

|
g(x

, t
|x x

|
v

)dx

, (2.82)
donde el parametro > 0 corresponde a la localidad de la actividad inhibito-
ria. De nuevo, debido al caracter local del proceso inhibitorio, consideraremos
que h
ij

(x, t) 0 si i = j.
Introduciendo las nuevas funciones incognitas
H
ij
+
(x, t) =
nh
ij
+
(x, t)
S
j
(x)
, H
jj

(x, t) =
h
jj

(x, t)
S
j
(x)
(2.83)
y realizando el mismo proceso de aplicar el operador

2
x
2
a cada lado de
(2.81), (2.82) y despues pasar al lmite cuando 0, se obtiene, debido a
(2.74)

2
H
ij
+
t
2
+ 2
ij
+
v
+
H
ij
+
t
+ (
ij
+
)
2
v
2
+
H
ij
+
v
2
+

2
H
ij
+
x
2
=
ij
+
v
+
_

ij
+
v
+
g
ij
(x, t) +
g
ij
t
(x, t)
_
, x
j
, (2.84)

2
H
jj

t
2
+ 2
jj

H
jj

t
+ (
jj

)
2
v
2

H
jj

v
2

2
H
jj

x
2
= 0, x
j
, (2.85)
72
donde g
ij
(x, t) es la fraccion del total de neuronas que generan potenciales
de accion en x
j
debido a las sinapsis que provienen de neuronas en
i
.
En lo que sigue supondremos que
g
ij
(x, t) =
ij
(x)g
j
(x, t) , (2.86)
donde g
j
(x, t) esta denida en (2.74) y 0
ij
(x) 1 es tal que
n

i=1

i,j
(x) = 1, para toda x
j
.
Las funciones
ij
(x); i, j = 1, . . . , n determinan el diagrama de conexion
funcional en la corteza, correspondiente a un estado siologico, caracterizado
por una funcion de activacion de neuronas g
j
(x, t) para cada compartimento

j
; j = 1, . . . , n. El hecho de que
ij
(x) pueda ser diferente de
kj
para
i = k nos permite considerar una distribucion no homogenea de activacion
en x
j
correspondiente a los compartimentos
k
y
i
que no podamos
considerar en el modelo estudiado en las secciones anteriores.
Sea V

el valor absoluto del potencial postsinaptico producido por una


sinapsis (+ excitatoria, inhibitoria). Introduciremos las nuevas variables
u
ij
(x, t) =
V
+
(n 1)
_
H
ij
+
(x, t) +
f
j
(x,t)
S
j
(x)
_
V

H
jj

(x, t)
(V
+
+ V

)
, (2.87)
i, j = 1, . . . , n , que llamaremos variable de activacion parcial en x
j
, en
el instante t, provocada por la accion de
i
sobre
j
.
De (2.84), (2.85), (2.86), (2.87) se obtiene el siguiente sistema de ecua-
ciones para las variables de activaci on :

2
u
ij
t
2
+ 2
ij
+
v
+
u
ij
t
+ (
ij
+
v
+
)
2
u
ij
v
2
+

2
u
ij
x
2
=

ij
+
v
+
V
+
(n 1)
(V
+
+ V

)

ij
(x)
_

ij
+
v
+
g
j
(x, t) +
g
j
t
(x, t)
_
(2.88)
+ F
ij
(x, t) I
ij
(x, t), x
j
; i, j = 1, . . . , n,
73
donde
F
ij
(x, t) =
V
+
(n 1)
(V
+
+ V

)
_

2
_
f
j
(x,t)
S
j
(x)
_
t
2
+ 2
ij
+
v
+

_
f
j
(x,t)
S
j
(x)
_
t
+(
ij
+
)
2
v
2
+
f
j
(x, t)
S
j
(x)
v
2
+

2
_
f
j
(x,t)
S
j
(x)
_
x
2
_

_ , (2.89)
I
ij
(x, t) =
V

V
+
+ V

2
H
ij

t
2
+ 2
ij
+
v
+
H
ij

t
+ (
ij
+
v
+
)
2
H
jj

v
2
+

2
H
jj

x
2
_
.
(2.90)
Notese que, en (2.90), H
jj

(x, t) solo depende de las condiciones iniciales


de inhibicion, debido a que satisface la ecuacion (2.85).
Teniendo en cuenta (2.80) podemos suponer que en (2.88) se tiene
g
j
(x, t) = g
j
(u
j
) , (2.91)
donde
u
j
(x, t) =
n

i=1
u
ij
(x, t)
es la llamada variable de activaci on total en x
j
.
De
0
n

i=1
H
ij
+
(x, t) +
_
f
j
(x, t)
S
j
(x)
_
1, para cada x
j
y 0 H
jj

(x, t) 1, para cada x


j
,
se tiene que
1 u
j
(x, t) 1, para cada x
j
.
Entonces de (2.91) y el comportamiento cualitativo que, a partir del
conocimiento siologico, debe tener la funcion de activacion g
j
, podemos
suponer que g
j
(u
j
) es una funcion creciente continuamente diferenciable de
la variable u
j
, denida en todo R y tal que
74
g
j
=
_

_
0 , si u
j
1 ,
creciente , si 1 u
j
1 ,
1 , si u
j
1 .
(2.92)
Para tener mas arbitrariedad en la seleccion de g
j
, podemos suponer que
es una funcion sigmoide de la variable u
j
que esta muy cercana al valor 0 en
u
j
= 1 y muy cercana al valor 1 en u
j
= 1.
Haremos ahora la suposicion de que las conexiones excitatorias entre com-
partimentos diferentes son pocas en comparacion con las que hay dentro de
cada compartimento, es decir,

jj
+

ij
+
1, si i = j; i, j = 1, . . . , n. (2.93)
Entonces, si ponemos

jj
+
v
+

jj

=
j
,

jj
+

ij
+
= , i = j (2.94)
y pasamos a las nuevas coordenadas

jj
+
v
+
t = ,
jj
+
x = y (2.95)
en (2.88) para todo i, j = 1, . . . , n, obtenemos un sistema con parametro
peque no para las variables de activaci on parcial en coordenadas adimensio-
nales

2
u
ij

2
+ 2
u
ij

+ u
ij

2
u
ij
y
2
=
V
+
(n 1)
(V
+
+ V

)

ij
(y)
_
g
j
(y, ) +
g
j

(y, )
_
+
(2.96)
+
1
(
ij
+
v
+
)
2
_

F
ij
(y, )

I
ij
(y, )
_
;
75
1

jj
+
y
j
, i, j = 1, . . . , n, i = j ,
donde
u
ij
(y, ) = u
ij
(x, t),
ij
(y) =
ij
(x),
g
j
(y, ) = g
j
(x, t),

F
ij
(y, ) = F
ij
(x, ),

I
ij
(y, ) = I
ij
(x, t).
Ademas se tiene

2
u
jj

2
+ 2
u
jj

+ u
jj


2
u
jj
y
2
=
V
+
(n 1)
(V
+
+ V

)

jj
(y)
_
g
j
(y, ) +
g

(y, )
_
+
(2.97)
1
(
+
v
+
)
2
_

F
jj
(y, )

I
jj
(y, )
_
,
1

jj
+
y
j
.
De (2.91) tenemos que
g
j
(y, ) = g
j
( u
j
) ,
donde
u
j
(y, ) =
n

i=1
u
ij
(y, )
es la variable de activacion total de la region
j
en coordenadas adimensio-
nales.
76
En lo que sigue consideraremos que las variables de activaci on se obtienen
en forma de promedios espaciales en cada compartimento
j
, es decir
u
ij
(y, ) = u
ij
(), u
ij
(y) = u
ij
,
g
j
(y, ) = g
j
(),

F
ij
(y, ) =

F
ij
() ,

I
ij
(y, ) =

I
ij
() .
De esta forma, el sistema (2.96), (2.97) se reduce al sistema

2
d
2
u
ij
d
2
+ 2
d u
ij
d
+ u
ij
=

ij
V
+
(n 1)
(V
+
+ V

)
_
g
j
() +
d g
j
d
()
_
+
1
(
ij
+
v
+
)
2
_

F
ij
()

I
ij
()
_
, (2.98)
i, j = 1, . . . , n, i = j ,
d
2
u
jj
d
2
+ 2
d u
jj
d
+ u
jj
=
ij
V
+
(n 1)
(V
+
+ V

)
_
g
j
() +
g
j

()
_
(2.99)
+
1
(
jj
+
v
+
)
2
_

F
jj
()

I
jj
()
_
.
Por simplicidad supondremos que la entrada aferente F
ij
() a la region

j
proveniente de estructuras internas del cerebro es peque na, es decir :

F
ij
() = (
jj
+
v
+
)

G
ij
(), i = j , (2.100)
donde

G
ij
() esta acotada.
77
Por otra parte, de (2.90) se tiene que
1
(
ij
+
v
+
)
2

I
ij
() =
V

(V
+
+ V

)
_

2
d
2

H
jj

()
d
2
+ 2
d

H
jj

()
d
+ H
jj

()
_
, (2.101)
donde

H
jj

() = H
jj

() es, seg un (2.85), solucion de la ecuacion

2
j
d
2

H
jj

d
2
+ 2
j
d

H
jj

d
+

H
jj

= 0 , (2.102)
donde
j
viene denido en (2.94). De (2.102) se tiene que

H
jj

() = (a + b)e
/
j
,
donde a y b son parametros que dependen de las condiciones iniciales de
inhibicion.
Finalmente, la ecuacion (2.98) se transforma en

2
d
2
u
ij
d
2
+ 2
d u
ij
d
+ u
ij
=
V
+
(n 1)
(V
+
+ V

)

ij
_
g
j
() +
d g
j
d
()
_
+
2

G
ij
() (2.103)

(V
+
+ V

H
jj

() para cada i, j = 1, . . . , n, i = j .
En la aproximaci on de orden cero, para valores de no cercanos a 0, la
solucion u
0
ij
() de (2.103) satisface la ecuacion
u
0
ij
=
V
+
(n 1)
(V
+
+ V

)

ij
g
j
( u
0
j
)
V

(V
+
+ V

H
jj

(), i, j = 1, . . . , n, i = j ,
(2.104)
donde
u
0
j
() =
n

i=1
u
0
ij
(),
78
de (2.104) se concluye que
u
0
j
=
n

i=1
u
0
ij
() =
V
+
(n 1)
(V
+
+ V

)
g
j
( u
0
j
)
n

i=1,i=j

ij
+ u
0
jj

(n 1)V

(V
+
+ V

H
jj

() ,
(2.105)
de donde se tiene :
u
0
j
=
V
+
(n 1)
(V
+
+ V

)
(1
jj
) g( u
0
j
) u
0
jj
+
(n 1)V

(V
+
+ V

H
jj

() . (2.106)
Si suponemos que g
j
es una funcion sigmoide con un solo punto de in-
exion, entonces la ecuacion (2.106) admite una solucion unica u
0
j
, para
cualquier u
0
jj
, si se cumple la condicion
V
+
(n 1)
(V
+
+ V

)
(1
jj
) g

j
(u) < 1, para cada j = 1, . . . , n. (2.107)
En este caso, aplicando al sistema (2.99), (2.103) los resultados de la
teora de perturbaciones singulares para sistemas con parametro peque no y
de la ecuacion (2.106), tendremos que para cualquier compacto contenido en
{ > 0} la aproximacion de orden cero de la variable de activaci on total,
satisface la ecuacion
d
2
u
0
j
d
2
+ 2
d u
0
j
d
+ u
0
j
=
V
+
(n 1)
(V
+
+ V

)

jj
_
g
j
( u
0
j
) + g

j
( u
0
j
)
d u
0
j
d
_
+
V
+
(n 1)
(V
+
+ V

)
(1
jj
)
_
d
2
g
j
d
2
( u
0
j
) + 2
d g
j
d
( u
0
j
) + g
j
( u
0
j
)
_

(n 1)V

(V
+
+ V

)
_
d
2

H
jj

d
2
+ 2
d

H
jj

d
+

H
jj

_
79
+
1
(
jj
+
v
+
)
2
_

F
jj
()

I
jj
()
_
.
Teniendo en cuenta la expresion de

H
jj

y que
1
(
jj
+
v
+
)
2

I
jj
() =
V

(V
+
+ V

)
_
d
2

H
jj

d
+ 2
d

H
jj

d
+

H
jj

_
=
V

(V
+
+ V

)
2
j
e
/
j
(
j
1) [2a
j
+ (
j
1)(a + b)] .
Obtenemos nalmente la ecuacion
_
1
V
+
(n 1)
(V
+
+ V

)
(1
jj
)g

j
( u
0
j
)
_
d
2
u
0
j
d
2
+
_
2
V
+
(n 1)
(V
+
+ V

)
(2
jj
)g

j
( u
0
j
)
_
d u
0
j
d
+

V
+
(n 1)
(V
+
+ V

)
(1
jj
)g

j
( u
0
j
)
_
d u
0
j
d
_
2
+ (2.108)
_
u
0
j

V
+
(n 1)
(V
+
+ V

)
g
j
( u
0
j
)
_
=
1
(
jj
+
v
+
)
2

F
jj
()
nV

(V
+
+ V

)
2
j
(
j
1)e
/
j
[2a
j
+ (
j
1)(a + b)] ,
donde el primer sumando del miembro derecho esta asociado a la entrada
aferente a la region
j
proveniente de estructuras interiores del cerebro y el
segundo sumando corresponde al control inhibitorio en
j
.
La ecuacion (2.108) describe, en la aproximaci on de orden cero con res-
pecto a las potencias de , la evoluci on temporal de la variable de activaci on
total en cada compartimento
j
.
80
Notese que el coeciente (1
jj
) corresponde a la contribucion de los
compartimentos
j
con i = j a la activaci on de
j
.
Notese ademas que bajo las suposiciones efectuadas se obtienen ecua-
ciones desacopladas para la variable de activaci on total en cada
j
, aunque
como se nalamos en el parrafo anterior el efecto de los restantes comparti-
mentos esta encerrado en el coeciente (1
jj
).
Finalmente hemos obtenido el teorema siguiente.
Teorema 1 Supongamos que la corteza cerebral esta dividida en n compar-
timentos mutuamente ajenos
j
, j = 1, . . . , n y que se cumplen las siguientes
hipotesis:
1. La funcion de distribucion de densidad de conexiones entre dos locali-
zaciones de la corteza esta descrita por (2.75), (2.76), (2.79).
2. La funcion que describe la fraccion del total de neuronas en una locali-
zacion determinada que generan potenciales de accion debido a las
sinapsis que provienen de neuronas ubicadas en otros compartimentos
viene dada por las expresiones (2.86), (2.91) y (2.92).
3. Las conexiones excitatorias entre compartimentos diferentes son pocos
en comparacion con los que hay dentro de cada compartimento, seg un
se expresa en (2.93).
4. Las entradas sinapticas aferentes a la corteza son peque nas en el sentido
de (2.100).
5. Entonces para la aproximacion de orden cero de los promedios espa-
ciales en cada
j
de la variable de activacion total
u
0
j
() =
n

i=1
u
0
ij
() (ver 2.87),
se tiene la ecuacion (2.108), si se cumple la condicion (2.107).
81
Captulo 3
AN

ALISIS MATEM

ATICO DEL MODELO


DE ACTIVACI

ON DE LA CORTEZA CERE-
BRAL.
3.1 UN MODELO MATEM

ATICO PARA UNA REBANADA


DE CORTEZA CEREBRAL
Un problema importante en siologa es determinar bajo que estmulos
externos se puede lograr que una peque na rebanada de corteza cerebral os-
cile en frecuencias determinadas de antemano. Con el modelo que hemos
obtenido es posible estudiar este problema. Como estaramos considerando
unicamente una peque na rebanada de corteza cerebral, lo que tendramos que
hacer en nuestro modelo, es considerar que no se tiene variacion espacial; en
este caso, nuestro modelo sera un sistema de dos ecuaciones diferenciales
ordinarias no lineales. Lo que nos proponemos estudiar, es las condiciones
que debe cumplir el estmulo externo para que nuestro sistema de ecuaciones
tenga soluciones periodicas.
As que, el sistema de ecuaciones diferenciales ordinarias a estudiar es
82
d
2
u
dt
2
+ 2
+
v
+
du
dt
+ (
+
v
+
)
2
u = V
+

+
v
+
_

+
v
+
g(u) + g

(u)
du
dt
_
V

t
_
(1
v
2
+
v
2

)
d
2
H

dt
2
+ 2(
+
v
+

)
d

H

dt
+ (
+
v
+

)
2

H

_
+f
+
(t) ,
(3.1)
d
2

H

dt
2
= f

(t) , (3.2)
donde f
+
(t), f

(t) son funciones que estan relacionadas con los estmulos


externos a la peque na rebanada de corteza.
La ecuacion (3.2) es muy facil de resolver, sus soluciones son de la forma

(t) = R(t) + at +b , (3.3)


donde a, b son constantes y
R(t) =
_
t
0
__
s
0
f

(z)dz
_
ds . (3.4)
Sustituyendo (3.3) en (3.1), obtenemos la ecuacion diferencial ordinaria
no lineal que necesitamos estudiar
d
2
u
dt
2
+ 2
+
v
+
du
dt
+ (
+
v
+
)
2
u = V
+

+
v
+
_

+
v
+
g(u) + g

(u)
du
dt
_
V

t
_
(1
v
2
+
v
2

)
d
2
R
dt
2
+2(
+
v
+

)(
dR
dt
+a) + (
+
v
+

)
2
(R(t) + at +b)
_
+f
+
(t) .
(3.5)
A continuaci on realizaremos un cambio de variable que nos permitira
reducir la ecuacion a una ecuacion diferencial equivalente mas sencilla de
estudiar.
83
Lema 3 Sea =
+
v
+
t, entonces la ecuacion (3.5) es equivalente a la
ecuacion diferencial
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g

(u)
du
d
_
V

+
v
+
_
(1
v
2
+
v
2

)
d
2
R
d
2
+ 2(
+
v
+

)(
1
(
+
v
+
)
2
dR
d
+
a
(
+
v
+
)
2
)
+(
+
v
+

)
2
(
R()
(
+
v
+
)
2
+
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
_
+f
+
() .
(3.6)
Demostracion.
Dividimos la ecuacion (3.5) por (
+
v
+
)
2
y usamos la regla de la cadena
para obtener las derivadas necesarias de las funciones que aparecen en la
ecuacion con respecto a .
En el siguiente resultado construiremos, a partir de la ecuacion (3.6),
una familia de ecuaciones diferenciales de primer orden dependiente de un
parametro. Esta familia de ecuaciones diferenciales de primer orden es equi-
valente a la ecuacion diferencial de segundo orden (3.6), en el sentido que se
enuncia en la siguiente proposicion.
Proposicion 1 Si u es una solucion de la ecuacion diferencial (3.6) con
condiciones iniciales u(0) = u
0
y u

(0) = u

0
, entonces u es solucion de la
ecuacion diferencial de primer orden
du
d
+u = V
+
g(u) +e

(F
+
() + K) , (3.7)
84
donde
F
+
() =
_

0
_
V

+
v
+
_
(1
v
2
+
v
2

)
d
2
R
d
2
+ 2(
+
v
+

)(
1
(
+
v
+
)
2
dR
d
+
a
(
+
v
+
)
2
)
+ (
+
v
+

)
2
(
R()
(
+
v
+
)
2
+
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
_
+f
+
()
_
e

d
(3.8)
y
K = u

0
+u
0
V
+
g(u
0
) .
Recprocamente, si u es una solucion de (3.7) con u(0) = u
0
, entonces, u es
una solucion de (3.6) con condiciones iniciales u(0) = u
0
y u

(0) = u

0
.
Demostracion.
Si multiplicamos la ecuacion (3.6) por e

, obtenemos
e

_
d
2
u
d
2
+ 2
du
d
+u
_
= e

V
+
_
g(u) + g

(u)
du
d
_
+
dF
+
d
. (3.9)
Como
d
d
_
e

(
du
d
+u)
_
= e

_
d
2
u
d
2
+ 2
du
d
+u
_
y
V
+
d
d
[e

g(u)] = V
+
[ g(u) + g

(u)
du
d
]
(3.6) se transforma en
d
d
_
e

(
du
d
+u)
_
=
d
d
[V
+
e

g(u) +F
+
()] .
Entonces
85
e

(
du
d
+u) = V
+
e

g(u) + F
+
() + K ,
donde
K = u

0
+u
0
+V
+
g(u
0
) ,
entonces
du
d
+u = V
+
g(u) +e

(F
+
() + K) .
Es decir, u es solucion de la ecuacion (3.7). El recproco se demuestra de
manera similar.
Ahora consideraremos que la entrada externa inhibitoria a la corteza cere-
bral es cero, es decir, tomaremos f

(t) 0.
En este caso la ecuacion (3.6) se reduce a
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g

(u)
du
d
_
V

+
v
+
_
2(
+
v
+

)
a
(
+
v
+
)
2
+ (
+
v
+

)
2
_
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
__
+f
+
()
y
F
+
() =
_

0
_
V

+
v
+
_
2(
+
v
+

)
a
(
+
v
+
)
2
+(
+
v
+

)
2
_
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
__
+f
+
()
_
e

d
En el siguiente resultado, probaremos que si escogemos el estmulo externo
de tal manera que e

(F
+
() +K) sea una funcion periodica en de perodo
86
T, se pueden proponer condiciones sobre g para que la ecuacion diferencial
(3.7) tenga una unica solucion periodica, de perodo T.
Observaci on
Para lograr que e

(F
+
() +K) sea una funcion periodica de perodo T,
basta tomar
f
+
() = p() + q()
donde p() sea una funcion cotinua periodica de perodo T y lim

q() = 0.
Ademas, en nuestro caso se puede demostrar que la funcion q() decrece
a cero en forma exponencial cuando tiende a .
En lo que sigue B = B[0, ) = u : [0, ) R[ u es continua y acotada
en [0, ), para u B, [[u[[

= sup
t[0 ]
[u(t)[ sabemos que B es un espacio
de Banach con [[u[[

.
Sea M = u B : u(0) = u
0
, M es un subespacio cerrado de B.
Teorema 2 Si e

(F
+
()+K) es una funcion continua en [0, ) y periodica
de perodo T, g una funcion tal que V
+
sup
uR
[ g

(u)[ < 1, entonces la


ecuacion diferencial
du
d
+u = V
+
g(u) +e

(F
+
() + K) (3.10)
tiene una unica solucion acotada en [0 )
Demostracion.
Por el metodo de variaci on de parametros, u es una solucion de (3.10) si
y solo si
u() = e

u
0
+
_

0
(e

e
s
[V
+
g(u) + e
s
(F
+
(s) +K)])ds . (3.11)
Vamos a construir un operador T : M M que tiene un unico punto jo
y este punto jo sera una solucion de la ecuacion (3.11) y por lo tanto de la
ecuacion (3.10).
87
Denamos T : M M por
Tu() = e

u
0
+
_

0
(e

e
s
[V
+
g(u) + e
s
(F
+
(s) + K)])ds . (3.12)
1. Vamos a demostrar que Tu es un elemento del espacio M
[Tu()[ [e

u
0
[ +
_

0
[e
+s
[V
+
g(u(s))[ds +
_

0
([e

(F
+
(s) + K)[)ds
[u
0
[ +V
+
e

0
e
s
ds +e

0
[F
+
(s) + K[ds
[u
0
[ +V
+
e

(e

e
0
) +[[F
+
() + K[[

,
por lo tanto
[Tu()[ [u
0
[ +V
+
(1 e

) +[[F
+
() + K[[

[u
0
[ +V
+
+[[F
+
() + K[[

.
Como lim

= 0 se tiene que [Tu()[ m para cada [0 ).


As si u M entonces, Tu M
2. Ahora vamos a probar que T es una contracci on. Sean u
1
, u
2
M,
entonces
[Tu
1
() Tu
2
()[
_

0
[e
+s
[V
+
( g(u
1
(s))) ( g(u
2
(s)))][ds
V
+
e

sup
uR
[ g

(u)[[[u
1
u
2
[[

0
e
s
ds
= sup
uR
[ g

(u)[[[u
1
u
2
[[

V
+
[1 e

]
Sup[ g

(u)[
uR
[[u
1
u
2
[[

V
+
, por lo tanto
[[Tu
1
Tu
2
[[

k
1
[[u 1 u
2
[[

, con k
1
= V
+
sup
uR
[ g

(u)[ < 1.
El operador T es una contracci on y por el teorema del punto jo de
Banach, T tiene un unico punto jo u, el cual es una solucion de la ecuacion
diferencial (3.10)
En resumen hemos probado que si e

(F
+
()+K) es una funcion periodica,
de perodo T, entonces la ecuacion (3.10) tiene una unica solucion acotada
88
en [0, ). Por el Teorema 4.11 de la pagina 116 del libro [39], se tiene que
la ecuacion diferencial (3.9) tiene una solucion periodica de perodo T, por
la proposicion 1, u es una solucion periodica de la ecuacion (3.6).
Para garantizar que la solucion periodica u cumpla con
[ u() [ maxV
+
, V

,
es necesario considerar, en lugar del conjunto M, el conjunto cerrado M

,
donde M

es
M

= u B [ u(0) = u
0
y exista
0
0 tal que [ u() [ maxV
+
, V

para cada
0
.
Se puede demostrar que el operador T denido en (3.12) tiene la propiedad
de que
T(M

) M

y as la prueba del teorema 2 se puede repetir.


3.2 CONTROLABILIDAD DE LOS ESTADOS
FISIOL

OGICOS DE LA CORTEZA CEREBRAL.


En esta seccion estudiaremos el problema del control de los estados -
siologicos de la corteza cerebral. Utilizaremos como elemento de control a
las inhibiciones. Se considera que el papel de las inhibiciones es controlar el
proceso de excitacion. Esta hipotesis se reeja en el sistema (3.1), (3.2), ya
que la funcion de densidad de actividad sinaptica inhibitoria (

H

) aparece
en la ecuacion para la funcion de activaci on (u), pero no al reves.
En lo que sigue consideraremos que
1. No existen entradas inhibitorias a la corteza cerebral, esto se traduce
en que f

(t) 0 en la ecuacion diferencial (3.1).


2. Los tiempos caractersticos de las inhibiciones son mucho menores que
los de las excitaciones. Por esto consideraremos que

+
v
+

1 . (3.13)
89
As, la ecuacion diferencial que estudiaremos es
d
2
u
dt
2
+ 2
+
v
+
du
dt
+ (
+
v
+
)
2
u = V
+

+
v
+
_

+
v
+
g(u) + g

(u)
du
dt
_
V

t
[2(
+
v
+

) + (
+
v
+

)
2
(t +)]
+f
+
(t) .
(3.14)
ya que

H

debe satisfacer la ecuacion (3.2) y por lo tanto, debe ser de la


forma

(t) = t + .
Usando el cambio de variable =
+
v
+
t y el lema 3, la ecuacion diferen-
cial (3.14) es equivalente a la ecuacion
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g

(u)
du
d
_
V

+
v
+

_
2(
+
v
+

)
a
(
+
v
+
)
2
+ (
+
v
+

)
2
(
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
)
_
+f
+
() .
(3.15)
As, el problema de control que queremos estudiar es el siguiente: dados
u
0
, u

0
, T, u
T
y u

T
, lo que queremos demostrar es que existen a, b n umeros
reales y u solucion de la ecuacion (3.15) tal que
u(0) = u
0
, u(T) = u
T
y
u

(0) = u

0
, u

(T) = u

T
.
Es decir queremos ver si el sistema dinamico determinado por la ecuacion
(3.15) es controlable.
Para estudiar este problema, nos auxiliaremos de la proposicion 1, la cual
nos garantiza que u es una solucion de (3.15) que satisface las condiciones
iniciales u(0) = u
0
, u

(0) = u

0
si, y solo si, u satisface la ecuacion diferencial
de primer orden
90
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e

, (3.16)
donde
K = u

(0) + u(0) V
+
g(u(0)) , (3.17)
f
0
(t) es una funcion relacionada con las entradas excitatorias a la corteza
cerebral y c
a,b
(t) es la funcion
c
a,b
(t) = V

__
e
_
1

+
v
+
_
t
__

+
v
+
1
_
t

+
v
+

+
v
+
_
+
1

+
v
+
_
a
+
_
e
_
1

+
v
+
_
t
1
_ _

+
v
+
1
_
b
_
. (3.18)
Las constantes a y b estan relacionadas con las condiciones iniciales de la
inhibicion.
El problema de control que estudiaremos es: dado u
0
, u

0
, T > 0, u
T
, u

T
existiran a, b n umeros reales y u solucion de la ecuacion (3.16) tal que
u(0) = u
0
, u(T) = u
T
,
u

(0) = u

0
, u

(T) = u

T
.
?
Este problema es equivalente a probar que la funcion U : R
2
R
2
denida por
U
_
a
b
_
=
_
u(T, a, b)
u

(T, a, b)
_
es sobreyectiva, donde u(t, a, b) es la solucion de la ecuacion diferencial (3.16)
que cumple la condicion inicial u(0) = u
0
.
Nota. Por la importancia que tienen las constantes a, b, es que ahora
denotaremos a las soluciones de (3.16) por u(t, a, b). La dependencia de las
condiciones iniciales se omitira, ya que estas condiciones estaran jas.
91
Sabemos que U es una funcion diferenciable en R
2
.
Para demostrar que U es suprayectiva, probaremos que U es un mapeo
abierto y tambien que U(R
2
) es un conjunto cerrado, y como R
2
es conexo,
se debe tener que U(R
2
) = R
2
.
Para simplicar la notacion, introduciremos las siguientes funciones
v(t) = u(t, a +, b) u(t, a, b) , (3.19)
f
1
(t) = e
_
1

+
v
+
_
t
__

+
v
+
1
_
t

+
v
+

+
v
+
_
+
1

+
v
+
, (3.20)
f
2
(t) =
_
e
_
1

+
v
+
_
t
1
__

+
v
+
1
_
. (3.21)
Como

+
v
+

1 se tiene que f
1
(t) > 0 y f
2
(t) < 0 para cada t 0 .
Lema 4 Para cada 0 < T se cumple
f
1
()f
2
(T) f
2
()f
1
(T) < 0 . (3.22)
Demostracion.
Sea
f
3
() =
f
1
()
f
2
()
. (3.23)
Probaremos primero que f
3
es una funcion decreciente en (0, T], de-
mostrando que f

3
0 en (0, T].
Multiplicando y dividiendo (3.23) por
e
(1

+
v
+
)
y sustituyendo (3.20) y (3.21) en (3.23), se tiene
92
f
3
() =
1

+
v
+
_
_

e
(

+
v
+
1)
1
+
1

+
v
+
1
_
_
. (3.24)
Derivando (3.24), se tiene
f

3
() =
e
_

+
v
+
1
_

_
e
_

+
v
+
1
_

1
_
2
_
1 e
_
1

+
v
+
_

+
v
+
1
_

_
. (3.25)
El primer factor de (3.25) es mayor que cero, as que, para probar que
f

3
< 0 en (0, T], necesitamos probar que el segundo factor de (3.25) es menor
que cero; para esto, consideremos la funcion
f
4
() = 1 e
_
1

+
v
+
_

+
v
+
1
_
.
Como f
4
(0) = 0, entonces, si probamos que f
4
es decreciente en (0, T], se
tendra que f
4
< 0 en (0, T]. Pero
f

4
() =
_

+
v
+
1
_
e
_
1

+
v
+
_

+
v
+
1
_
2
_
e
_
1

+
v
+
_

1
_
0 ,
por lo tanto, f
4
es una funcion decreciente en (0, T]. As, f
4
() 0 para
(0, T]. Esto ultimo implica que f

3
0 en (0, T], que es lo que queramos
probar.
Ahora, por ser f
4
una funcion decreciente, para cada (0, T],se tiene
f
1
(t)
f
2
(t)

f
1
(T)
f
2
(T)
y como f
2
() < 0 para cada , se tiene
f
1
()f
2
(T) f
2
()f
1
(T) < 0 .
En lo que sigue, vamos a necesitar las siguientes derivadas
u
a
(T, a, b),
u
b
(T, a, b),
u

a
(T, a, b) y
u

b
(T, a, b) .
As que vamos a calcular estas derivadas.
93
1.
u
a
(T, a, b) .
Como u(t, a, b), u(t, a +, b) son soluciones de (3.16) se cumple que
du
d
(, a +, b) +u(, a +, b) V
+
g(u(, a +, b)) =
(f
0
() + c
a+,b
() + K)e

,
(3.26)
du
d
(, a, b) + u(, a, b) V
+
g(u(, a, b)) =
(f
0
() +c
a,b
() + K)e

,
(3.27)
entonces, restando (3.27) a (3.26) y usando (3.19) se tiene
dv
d
+v V
+
( g(u(, a +, b)) g(u(, a, b))) = (c
a+,b
() c
a,b
())e

.
Ahora, tomando la parte lineal de g(u(, a, b)), se tiene
dv
d
+v V
+
( g

(u(, a, b)))v = (c
a+,b
() c
a,b
())e

,
pero como
c
a+,b
() c
a,b
() = V

f
1
()
y
v(T) = V

_
T
0
e
t
e

_
T
t
(1V
+
g

(u(,a,b)))d
f
1
(t) dt , (3.28)
entonces, usando (3.19) y dividiendo (3.28) por , se tiene
u(T, a +, b) u(T, a, b)

=
v(T)

= V

_
T
0
e
t
e

_
T
t
(1V
+
g

(u(,a,b)))d
f
1
(t) dt .
94
Tomando el lmite cuando 0, se obtiene
u
a
(T, a, b) = V

_
T
0
e
t
e

_
T
t
(1V
+
g

(u(,a,b)))d
f
1
(t) dt . (3.29)
De manera similar, se puede calcular
u
b
(T, a, b) .
2.
u
b
(T, a, b).
u
b
(T, a, b) = V

_
T
0
e
t
e

_
T
t
(1V
+
g

(u(,a,b)))d
f
2
(t) dt. (3.30)
3.
u

a
(T, a, b).
Como u(t, a, b), u(t, a +, b) son soluciones de (3.16) se cumple
u

(T, a, b) = V
+
g(u(T, a, b)) u(T, a, b) +(f(T) +c(T) +K)e
T
(3.31)
y
u

(T, a+, b) = V
+
g(u(T, a+, b))u(T, a+, b)+(f(T)+c(T)+K)e
T
,
(3.32)
Restando (3.31) a (3.32), se obtiene
u

(T, a +, b) u

(T, a, b) = V
+
[ g(u(T, a +, b)) g(u(T, a, b))]
[u(T, a +, b) u(T, a, b)] + [c
a+,b
(T) c
a,b
(T)]
= [V
+
g

(u(T, a, b)) 1] [u(T, a +, b) u(T, a, b)] + e


T
V

f
1
(T) .
Entonces
u

(T, a +, b) u

(T, a, b)

=
95
[V
+
g

(u(T, a, b)) 1]
_
u(T, a +, b) u(T, a, b)

_
+e
T
V

f
1
(T) ,
Tomando el lmite cuando 0, obtenemos
u

a
(T, a, b) = [V
+
g

(u(T, a, b)) 1]
u
a
(T, a, b) + V

e
T
f
1
(T) . (3.33)
De la misma manera, se obtiene
4.
u

b
(T, a, b).
u

b
(T, a, b) = [V
+
g

(u(T, a, b)) 1]
u
b
(T, a, b) + V

e
T
f
2
(T) . (3.34)
Proposicion 2 Sea U : R
2
R
2
denida por
U
_
a
b
_
=
_
u(T, a, b)
u

(T, a, b)
_
,
donde u(t, a, b) es la solucion de la ecuacion diferencial (3.16) que cumple la
condicion inicial u(0) = u
0
. Entonces U es un mapeo abierto.
Demostracion.
Basta probar que localmente U es un mapeo abierto. Para probar que U
es localmente un mapeo abierto, demostraremos que
DU(a, b) = det
_

_
u
a
(T, a, b)
u
b
(T, a, b)
u

a
(T, a, b)
u

b
(T, a, b)
_

_ ,= 0 (3.35)
para cada a, b elementos de R.
96
DU(a, b) =
u
a
(T, a, b)
u

b
(T, a, b)
u

a
(T, a, b)
u
b
(T, a, b) . (3.36)
Sustituyendo (3.33) y (3.34) en (3.36) se obtiene
DU(a, b) =
u
a
(T, a, b)
_
u
b
(T, a, b) [V
+
g

(u(T, a, b)) 1] + V

e
T
f
2
(T)
_

u
b
(T, a, b)
_
u
a
(T, a, b) [V
+
g

(u(T, a, b)) 1] V

u
b
(T, a, b)f
1
(T)
_
,
entonces
DU(a, b) = V

e
T
_
u
a
(T, a, b)f
2
(T)
u
b
(T, a, b)f
1
(T)
_
. (3.37)
Sustituyendo (3.29) y (3.30) en (3.37) se obtiene
DU(a, b) = V
2

e
T
_
_
T
0
e
s
e

_
T
s
(1V
+
g

(u))d
f
1
(s)f
2
(T) f
2
(s)f
1
(T) ds
_
.
(3.38)
Por el lema 4, se tiene
f
1
(t)f
2
(T) f
2
(t)f
1
(T) < 0 para 0 < t T
y por lo tanto el integrando en (3.38) es estrictamente menor que 0 en el
intervalo [0, T], y por lo tanto
DU(a, b) < 0 para cada a, b R.
As, hemos probado que U es localmente un mapeo abierto y por lo tanto
que U es un mapeo abierto en R
2
.
Ahora demostraremos que U(R
2
) es un conjunto cerrado en R
2
.
Primeramente probaremos el siguiente lema.
97
Lema 5 Para cada T > 0 sea B
T
= (u(T, a, b), u

(T, a, b)) : (a, b) A. Si


B
T
es un conjunto acotado, entonces A es un conjunto acotado.
Demostracion.
Primero demostraremos que los conjuntos
_
(T, a, b) = e
T
_
T
0
c
a,b
(s)ds : (a, b) A
_
(3.39)
y
(T, a, b) = c
a,b
(T) : (a, b) A (3.40)
son acotados.
Como u es solucion de la ecuacion (3.16), es decir satisface la ecuacion
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e

,
entonces, por el metodo de variaci on de parametros, u debe satisfacer
u() = e

u(0)+e

V
+
_

0
g(u(s))e
s
ds+e

_

0
(f(s)+c
a,b
(s)+K)ds . (3.41)
Evaluando (3.41) en T se tiene
u(T, a, b) = u(0)e
T
+V
+
_
T
0
g(u(s))e
sT
ds +e
T
_
T
0
(f(s) +c
a,b
(s) +K)ds .
(3.42)
Despejando (T, a, b) de (3.42) se tiene
(T, a, b) = u(T, a, b)u(0)e
T
V
+
_
T
0
g(u(s))e
sT
dse
T
_
T
0
(f
0
(s)+K)ds ,
(3.43)
entonces
[ (T, a, b) [[ u(T, a, b) [ + [ u(0)e
T
[ +
[ V
+
_
T
0
g(u(s))e
sT
ds [ + [ e
T
_
T
0
(f
0
(s) + K)ds [ .
(3.44)
98
Ahora, por hipotesis existe N
1
(T) tal que
[ u(T, a, b) [ N
1
(T) para cada (a, b) A. (3.45)
Ademas, como g es acotada por 1 en R y e

1 para 0, se tiene

V
+
_
T
0
g(u(s))e
sT
ds

V
+
T (3.46)
y como f
0
() es continua en el intervalo [0, T], se tiene que, existe M(T) tal
que

_
T
0
(f
0
(s) +K)ds

M(T) . (3.47)
Usando (3.45), (3.46), (3.47) en (3.44) se prueba que
[ (T, a, b) [ N
1
(T) + u
0
+V
+
(T) + M(T) para cada (a, b) A (3.48)
que es lo que queramos probar.
Por (3.41) se tiene
u

(T, a, b) +u(T, a, b) V
+
g(u(T, a, b)) = (f(T) + c
a,b
(T) + K)e
T
. (3.49)
Despejando (T, a, b) de (3.49) se tiene que
(T, a, b) = u

(T, a, b) +u(T, a, b) V
+
g(u(T, a, b)) (f(T) +K)e
T
, (3.50)
entonces,
[ (T, a, b) [[ u

(T, a, b) [ + [ u(T, a, b) [ +
[ V
+
g(u(T, a, b)) [ + [ (f(T) +K)e
T
[ .
(3.51)
Por la hipotesis existe N
2
(T) tal que
[ u

(T, a, b) [ N
2
(T), para cada (a, b) A. (3.52)
Usando (3.45) y (3.52) se tiene que
[ (T, a, b) [ N
2
(T) +N
1
(T) + V
+
+M
1
(T), para cada (a, b) A (3.53)
99
y por lo tanto se obtiene que
(T, a, b) = c
a,b
(T) : (a, b) A
es un conjunto acotado en R.
Ahora, demostraremos que a y b deben satisfacer un par de ecuaciones.
(T, a, b) =
_
T
0
c
a,b
(s)ds =
V

e
_
1

+
v
+
_
T 1

+
v
+
a +V

_
(1)e

_
1

+
v
+
_
T
+ 1
_

+
v
+
1
_
T
_
b
= A(T)a +B(T)b ,
donde
A(T) = V

e
_
1

+
v
+
_
T 1

+
v
+
,
B(T) = V

_
(1)e

_
1

+
v
+
_
T
+ 1
_

+
v
+
1
_
T
_
y
(T, a, b) = V

f
1
(T)a +f
2
(T)b .
Por lo tanto, tenemos que se cumple
A(T)a +B(T)b = (T, a, b) ,
V

f
1
(T)a +V

f
2
(T)b = (T, a, b) .
(3.54)
Si probamos que
_
_
_
A(T) B(T)
V

f
1
(T) V

f
2
(T)
_
_
_
100
es invertible, se tendra que
_
_
_
a
b
_
_
_ =
_
_
_
A(T) B(T)
V

f
1
(T) V

f
2
(T)
_
_
_
1
_
(T, a, b)
(T, a, b)
_
para cada (a, b) A.
Pero como hemos demostrado que (T, a, b), (T, a, b) son conjuntos aco-
tados para cada T > 0, se concluye que A es un conjunto acotado.
Probaremos que
A(T)f
2
(T) B(T)f
1
(T)
V
2

,= 0 . (3.55)
A(T)f
2
(T) B(T)f
1
(T)
V
2

= e
_
1

+
v
+
_
T 1

+
v
+
f
2
(T)
_
e
_
1

+
v
+
_
T
+ 1
_

+
v
+
1
_
t
_
f
1
(T) .
Como f
2
(T) < 0,
e
_
1

+
v
+
_
T 1

+
v
+
f
2
(T) < 0 .
Sabemos tambien que f
1
(T) > 0, as si probamos que
_
e
_
1

+
v
+
_
T
1 +
_

+
v
+
1
_
T
_
< 0 , (3.56)
demostraramos la desigualdad
A(T)V

f
2
(T) B(T)V

f
1
(T)
V
2

< 0 .
Para probar (3.56), consideremos la funcion
f
5
(t) =
_
e
_
1

+
v
+
_
t
1 +
_

+
v
+
1
_
T
_
.
101
Se tiene que
f
5
(0) = 0
y su derivada es
f

5
(t) =
_
1

+
v
+
_
t
_
e
_
1

+
v
+
_
t
1
_
.
Como

+
v
+
1, se concluye que
f

5
(t) < 0 para cada t 0 .
Por lo tanto f
5
es un funcion decreciente en [0, ) y como f
5
(0) = 0, se
tiene
f
5
(T) f
5
(0) = 0 .
Con esto ultimo probamos (3.56).
Por lo tanto hemos demostrado que
_
_
_
A(T) B(T)
V

f
1
(T) V

f
2
(T)
_
_
_
es invertible. Que es lo que queramos demostrar.
En la siguiente proposicion, probaremos que U(R
2
) es un conjunto cerrado
en R
2
.
Proposicion 3 Si U : R
2
R
2
denida por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u

(T, a, b)
_
_
_ ,
donde u(t, a, b) es una solucion de (3.16) con u(0) = u
0
. Entonces U(R
2
) es
un conjunto cerrado en R
2
.
102
Demostracion.
Sea (u
T
, u

T
) U(R
2
), existe una sucesion (a
n
, b
n
) : n N tal que
lim
n
_
_
_U
_
_
_
a
n
b
n
_
_
_
_
_
_ = lim
n
_
_
_
u(T, a
n
, b
n
)
u

(T, a
n
, b
n
)
_
_
_ =
_
_
_
u
T
u

T
_
_
_ .
Por demostrar que existen
_
a
b
_
en R
2
y u solucion de (3.16) tal que
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u

(T, a, b)
_
_
_ =
_
_
_
u
T
u

T
_
_
_ .
Como u(T, a
n
, b
n
), u

(T, a
n
, b
n
) : n N es un conjunto acotado en R
2
,
por el lema 5 se tiene que
(a
n
, b
n
) [ n N
es un conjunto acotado en R
2
, por el teorema de Bolzano-Weierstrass, existe
una subsucesion convergente (a
n
j
, b
n
j
) [ j N de (a
n
, b
n
) [ n N. Sea
(a, b) el lmite de esta subsucesion.
Por la continuidad de las soluciones u(t, a
n
j
, b
n
j
) se tiene que
lim
j
u(T, a
n
j
, b
n
j
) = u(T, a, b) ,
as u(T, a, b) = u
T
.
Ademas, como
u

(T, a
n
j
, b
n
j
) = u(T, a
n
j
, b
n
j
) + V
+
g(u(T, a
n
j
, b
n
j
))
+(f(T) + c
an
j
,bn
j
(T) + K)e
T
,
lim
j
(u(T, a
n
j
, b
n
j
)) = u(T, a, b) ,
103
lim
j
(V
+
g(u(T, a
n
j
, b
n
j
))) = V
+
g(u(T, a, b)) ,
y
lim
j
((f(T) +c
an
j
,bn
j
(T) + K)e
T
) = (f(T) +c
a,b
(T) + K)e
T
se tiene que
lim
j
u

(T, a
n
j
, b
n
j
) = u

(T, a, b) .
por lo tanto hemos demostrado que U(R
2
) es un conjunto cerrado en R
2
.
En resumen, hemos probado que el mapeo
U : R
2
R
2
denido por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u

(T, a, b)
_
_
_ ,
donde u(T, a, b) es una solucion de (3.16) con condicion inicial u(0) = u
0
es
un mapeo sobreyectivo.
Teorema 3 El sistema dinamico
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g

(u)
du
d
_
V

+
v
+

_
2(
+
v
+

)
a
(
+
v
+
)
2
+ (
+
v
+

)
2
(
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
)
_
+f
+
()
(3.57)
es controlable en R
2
, es decir, dados u
0
, u

0
y T, u
T
y u

T
, existen a, b n umeros
reales y u solucion de la ecuacion (3.57) tal que
u(0) = u
0
, u(T) = u
T
y
u

(0) = u

0
, u

(T) = u

T
.
104
Demostracion.
Sean u
0
, u

0
y T, u
T
y u

T
dados. Por la proposicion 2, U : R
2
R
2
denido por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u

(T, a, b)
_
_
_ ,
donde u(t, a, b) es una solucion de
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e

,
con
K = u

(0) + u(0) V
+
g(u(0)),
es un mapeo abierto en R
2
. Por la proposicion 3, U es un mapeo cerrado en
R
2
, por lo tanto como R
2
es conexo, se tiene que U es suprayectiva, es decir,
existen a, b R y u solucion de
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e

,
con
u(0) = u
0
, u(T) = u
T
,
u

(0) = u

0
, u

(T) = u

T
y
K = u

(0) + u(0) V
+
g(u(0)) .
Pero por la proposicion 1, u tambien es solucion de (3.57), y as hemos
demostrado el teorema.
105
3.3 EXISTENCIA DE ONDAS VIAJERAS EN LA CORTEZA
CEREBRAL
En esta seccion estudiaremos la existencia de estados siologicos que se
corresponden con la existencia de ondas viajeras (ondas que se propagan por
el medio cortical sin perder su forma) en la ecuacion (2.71).
En el caso de modelos matematicos de neuronas se ha demostrado la
existencia de ondas viajeras [30], [48], [101]. Tambien se ha estudiado este
problema en otro tipo de procesos de reaccion difusion [102].
Buscaremos bajo que condiciones la ecuacion diferencial parcial

2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+

2
u
x
2
= V
+

+
v
+
_

+
v
+
g(u) + g

(u)
u
t
_
(3.58)
tenga soluciones de la forma: u(x, t) = (x ct) para algunos valores de la
constante c.
Como en la seccion anterior, haremos algunos cambios de variable, que no
alteran el resultado buscado, pero que nos permitiran construir una ecuacion
diferencial parcial equivalente a (3.58) mas sencilla de estudiar.
Si hacemos el cambio de variable =
+
v
+
t y y =
+
x, la ecuacion (3.58)
es equivalente a la ecuacion

2
u

2
+ 2
u

+u

2
u
y
2
= V
+
_
g(u) + g

(u)
u
t
_
. (3.59)
Para esta ecuacion buscaremos soluciones de la forma
u(y, ) = (y c) = (s) con s = y c y tal que () = s
0
= ()
donde s
0
es constante.
Antes de estudiar este tema, enunciaremos algunos resultados impor-
tantes que usaremos mas adelante en esta seccion. Estos resultados no seran
demostrados. Para ver la demostracion de los Teoremas 4 y 5, recurrir a [23].
Teorema 4 Sea A una matriz n n y f : R R
n
una funcion continua
acotada Consideremos la ecuacion diferencial
106
du
dt
= Au +f(t) . (3.60)
La condicion necesaria y suciente para que la ecuacion (3.60) tenga una
unica solucion acotada en R, es que (A) no intersecte al eje imaginario.
En este caso la solucion acotada se expresa en la forma.
u(t) =
_

G(t )f()d , (3.61)


donde G(t) es la funcion de Green principal de A, la cual se dene como
G(t) =
_
e
At
P

, t > 0
e
At
P
+
, t < 0 ,
(3.62)
donde P

, P
+
son, respectivamente los proyectores sobre los subespacios pro-
pios con parte real positiva, negativa.
Teorema 5 Consideremos la ecuacion
du
dt
= Au +f(t, u) . (3.63)
Supongamos que se cumplen las condiciones siguientes
1. A es una matriz n n, tal que
(A) (0 R) = . (3.64)
2. Sea > 0. Existe M > 0 tal que
[ f(t, u) [ M para t R y [ u [ . (3.65)
3. Existe q > 0 tal que
[ f(t, u
1
) f(t, u
2
[ q [ u
1
u
2
[ para [ u
1
[ y [ u
2
[ . (3.66)
107
4. Existe N > 0 y r > 0 tal que
[ G(t) [ Ne
rt
para cada t R. (3.67)
5. M y q cumplen con
M
r
2N
y q <
r
2N
. (3.68)
Entonces, la ecuacion (3.63) tiene una unica solucion acotada en R, tal
que
[ u(t) [ para cada t R. (3.69)
Ahora, demostraremos un lema, que usaremos posteriormente.
Lema 6 Sea f : R
2
R
2
continua. Supongamos que la ecuacion diferencial
dx
dt
= f(x), x R
2
(3.70)
tiene un unico punto estacionario x
0
, el cual es un punto silla. Entonces
la condicion necesaria y suciente para que la ecuacion (3.70) tenga una
solucion homoclnica es que tenga una solucion no trivial acotada en R.
Demostracion.
La suciencia es evidente.
Sea una solucion no trivial acotada de (3.70). Como x
0
es el unico
punto estacionario de la ecuacion (3.70), y como ademas es un punto silla, el
teorema de Poincare-Bendixon, nos asegura que
1. lim
t
(t) = x
0
o
2. () = x
0
= (), donde () y () son, respectivamente los
conjuntos -lmite y -lmite de la orbita generada por la solucion .
108
En ambos casos, sera la solucion homoclnica no trivial buscada.
En lo que sigue, retomaremos el problema de la existencia de las ondas
viajeras para la ecuacion (3.59)

2
u

2
+ 2
u

+u

2
u
y
2
= V
+
_
g

(u)
u

+ g(u)
_
.
Es decir, buscaremos soluciones de la forma
u(y, ) = (y c) , (3.71)
donde es una funcion de una variable que cumple que el
lim
s
(s) =
0
, (3.72)
donde
0
es una constante.
Ahora veremos que la existencia de soluciones de la ecuacion (3.59) que
son de la forma (3.71) y que cumplen con la condicion (3.72), es equivalente
a la existencia de soluciones de una ecuacion diferencial ordinaria de segundo
orden, que cumplen con la condicion (3.72).
Si u es una solucion de la ecuacion (3.59) de la forma (3.71), que cumple
con la condicion (3.70), entonces usando la regla de la cadena, obtenemos
u

= c
d
ds
,

2
u

2
= c
2
d
2

ds
2
,
u
y
=
d
ds
,

2
u
y
2
=
d
2

ds
2
.
Sustituyendo estas derivadas en la ecuacion (3.59) y reordenando la ecuacion,
obtenemos que debe ser solucion de la ecuacion
(c
2
1)
d
2

ds
2
+c(V
+
g

() 2)
d
ds
+ ( V
+
g()) = 0 . (3.73)
Recprocamente, si es solucion de (3.73) que cumple con la condicion
(3.72) entonces la funcion
u(y, ) = (y c)
es una solucion de la ecuacion (3.59).
109
Observaci on.
En lo que sigue supondremos que 0 < c < 1, ya que esto corresponde a
una velocidad real de propagacion, cV
+
, la cual no puede ser superior a la
velocidad de propagacion de los potenciales de accion.
Tambien tenemos que la ecuacion (3.73) es equivalente al sistema de ecua-
ciones de primer orden.
d
dt
_

_
=
_
_
_
0 1
1
1c
2
2c
1c
2
_
_
_
_

_
+
V
+
1 c
2
_
0
c g

() g()
_
, (3.74)
donde (s) =
d
ds
La existencia de ondas viajeras para la ecuacion (3.59) es equivalente a
la existencia de soluciones homoclnicas para la ecuacion (3.74) para alg un
valor de c (0, 1).
De (3.73) es evidente que para c = 1 no puede haber soluciones ho-
moclnicas para esta ecuacion.
En lo que sigue supondremos que
g

() <
1
V
+
para cada R. (3.75)
Con esta condicion veremos que el sistema (3.74) tiene un unico punto
estacionario para cualquier valor de la constante c que cumple 0 < c < 1.
Ademas, este punto estacionario es independiente de c y es un punto
silla del sistema. Con este resultado, el problema de encontrar soluciones
homoclnicas para el sistema (3.74) se reduce al de buscar soluciones acotadas
en R, diferentes de la trivial de este sistema.
Como las soluciones estacionarias de (3.74) son de la forma
_

0
0
_
donde

0
es raz de la ecuacion
V
+
g() = 0 .
De la condicion V
+
g

() <
1
V
+
, se concluye que esta ecuacion tiene una
unica solucion
0
, que corresponde a una unica solucion estacionaria de
(3.74).
110
Para determinar si el punto estacionario es un punto silla, estudiaremos
la parte lineal del sistema en un entorno del punto estacionario.
Calculando la derivada del lado derecho de (3.74) en el punto estacionario
y haciendo algunos calculos obtenemos que la parte lineal del sistema en
un entorno del punto estacionario es
d
dt
_

_
=
_
_
_
0 1
1
c
2
1
(V
+
g

(
0
) 1)
c
c
2
1
(2 V
+
g

(
0
))
_
_
_
_

_
. (3.76)
Su ecuacion caracterstica es :

_
+
c
c
2
1
(V
+
g

(
0
) 2)
_
+
1
c
2
1
(V
+
g

(
0
) 1) = 0 . (3.77)
Las races de (3.77) son

=
c
c
2
1
(2 V
+
g

(
0
))
_
(
c
c
2
1
(2 V
+
g

(
0
))
2
+
1
c
2
1
(V
+
g

(
0
) 1))
2
.
(3.78)
Ahora, como V
+
g

(
0
) < 1 y 0 < c < 1, obtenemos 0 <
+
y

< 0.
Por lo tanto
_

0
0
_
es un punto silla de (3.76) para cualquier valor de
0 < c < 1.
Seg un el lema 6, la existencia de soluciones homoclnicas de (3.74) es
equivalente a la existencia de soluciones acotadas diferentes de la trivial
_

0
0
_
.
Por el teorema 4, si se denota por
A
c
=
_
_
_
0 1
1
1c
2
2c
1c
2
_
_
_ (3.79)
y G(t, c) la correspondiente funcion de Green principal, entonces las solu-
ciones acotadas en R de (3.74) coinciden con las soluciones acotadas de la
ecuacion integral
_

_
=
V
+
1 c
2
_

G(t , c)
_
0
c g

(()() g()
_
d . (3.80)
111
Ahora estudiaremos bajo que condiciones la ecuacion integral (3.80) tiene
soluciones acotadas.
Lema 7 La funcion de Green principal de A
c
es
G(t, c) =
_

_
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ , si t > 0

1
2
e
t
c+1
_
_
_
1 + c 1 c
2
1 1 c
_
_
_ , si t < 0 .
(3.81)
Demostracion.
Seg un (3.62), requerimos calcular e
A
c
t
y los proyectores P
+
, P

.
Los valores propios de A
c
son
1
1 +c
,
1
c 1
. (3.82)
Usando la forma canonica de Jordan de A
c
, y realizando algunos calculos,
que no escribiremos aqu, obtenemos
e
A
c
t
=
1
2
e
t
1+c
_
_
_
1 +c 1 c
2
1 1 c
_
_
_ +
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ . (3.83)
Los proyectores son
P
+
c
_
x
y
_
=
1
2
_
_
_
1 + c 1 c
2
1 1 c
_
_
_
_
x
y
_
, (3.84)
P

c
_
x
y
_
=
1
2
_
_
_
1 c c
2
1
1 1 + c
_
_
_
_
x
y
_
. (3.85)
112
Sustituyendo (3.83), (3.84) y (3.85) en (3.62), se obtiene
G(t, c) =
_

_
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ , si t > 0

1
2
e
t
c+1
_
_
_
1 + c 1 c
2
1 1 c
_
_
_ , si t < 0 .
(3.86)
Lema 8
[ G(t) [ (1 + c)e
|t|
1+c
. (3.87)
Demostracion.
Se concluye del lema 7 y del hecho que la norma del operador
M(x, y) =
_
_
_
a
11
a
12
a
21
a
22
_
_
_
_
x
y
_
cumple
[ M [ 2K ,
donde
K = max
1i2, 1j2
[ a
ij
[ .
Para obtener estimados mas simples sin perder generalidad del inte-
grando en la ecuacion integral, supondremos
g(u) =
1
1 + e
u+
con > 0, > 0 . (3.88)
Obteniendo la primera y segunda derivada de g, denida por (3.88) se
tiene
g

(u) = g(1 g) , (3.89)


113
g

(u) = g

(1 2 g) , (3.90)
[ g

[ , (3.91)
[ g

[ 2
2
. (3.92)
Lema 9 Sea > 0. Si
[ [
2
+ [ [
2

2
,
[
i
[
2
+ [
i
[
2

2
para 1 i 2 .
Entonces, se tienen las siguientes desigualdades
[ c g

() g() [ c + 1 , (3.93)
[ (c g

(
1
)
1
g(
1
)) (c g

(
2
)
2
g(
2
)) [ 2(c + 1) . (3.94)
Demostracion.
Se sigue inmediatamente de (3.91) y (3.92).
Proposicion 4 Supongamos que en el sistema (3.74) la funcion g tiene la
forma
g() =
1
1 + e
+
, > 0, y > 0 .
Supongamos ademas que V
+
<
1
4
. Entonces para cada > max
0
,
1
2

existe 0 < c() < 1 tal que para cada 0 < c < c(), la unica solucion acotada
de este sistema contenida en la bola cerrada
_

_
R
2
:[ [
2
+ [ [
2

2
,
es la solucion estacionaria
_

0
0
_
. Ademas c() viene dada por
c() =
_
1 +
1

+
1
4
2
V
+
_
+
_
_
1 +
1

+
1
4
2
V
+
_
2
4
_
1


1
4
2
V
+
_
2
. (3.95)
114
Observaci on.
La condicion V
+
<
1
4
garantiza que
_

0
0
_
es el unico punto estacionario
del sistema (3.74), donde
0
es la unica solucion de la ecuacion
V
+
g() = 0 .
Demostracion.
Demostraremos que bajo las condiciones de esta proposicion, el sistema
(3.74) cumple con las condiciones del teorema 4, y que por lo tanto este
sistema debe tener una unica solucion acotada u contenida en la bola cerrada

_
R
2
:[ [
2
+ [ [
2

2
, pero como
_

0
0
_
es tambien una solucion
acotada del sistema contenida en la misma bola cerrada, se debe tener que
_

0
0
_
es la unica solucion del sistema (3.74) en esta bola cerrada.
Pasemos a demostrar que el sistema (3.74) cumple con las hipotesis del
teorema 5.
Los valores propios de la matriz A
c
son
1
1 + c
,
1
c 1
,
por lo tanto A
c
cumple con la condicion (3.64).
Por el lema 9 se tiene
V
+
1 c
2

_
0
c g

() g()
_

V
+
1 c
2
(c + 1) para

2
,
V
+
1 c
2

_
0
c g

(
1
) g(
1
) (c g

(
2
)
2
g(
2
))
_

V
+
1 c
2
2(c + 1)

1
_

2
_

2
para

1
_

2
y

2
_

2
.
115
As, tambien se cumplen las condiciones (3.66), (3.67), con
M = (c + 1)
V
+
1 c
2
, q = 2(c + 1)
V
+
1 c
2
.
Por los lemas 7 y 8, se tiene que la funcion de Green principal, G(t, c),
de A
c
cumple
[ G(t, c) [ (1 + c)e
|t|
1+c
,
por lo tanto, tambien se cumple (3.67) con
N = 1 + c y r =
1
1 +c
.
Solo nos falta probar la condicion (3.68), es decir, nos falta probar que
bajo las condiciones de la proposicion 4 se cumple
(c + 1)V
+
1 c
2


2(1 + c)
2
, (3.96)
2(c + 1)V
+
1 c
2
<
1
2(1 + c)
2
. (3.97)
Multiplicando (3.96), (3.97) por 1c
2
y simplicando obtenemos que este
sistema de desigualdades es equivalente a
(c + 1)V
+

(1 c)
2(1 + c)
, (3.98)
2(c + 1)V
+
<
1 c
2(1 + c)
. (3.99)
Realizando algunas operaciones y reordenando obtenemos que el sistema
(3.98), (3.99) es equivalente al sistema
P
1
(c) = c
2
+
_
1 +
1

+
1
2V
+

_
c +
1


1
2V
+

0 , (3.100)
P
2
(c) = c
2
+
_
1 +
1

+
1
4
2
V
+
_
c +
_
1


1
4
2
V
+
_
< 0 . (3.101)
116
As que necesitamos probar que
P
1
(c) 0 , (3.102)
P
2
(c) < 0 . (3.103)
Para probar esto, obtengamos las races de los polinomios cuadraticos
P
1
(c), P
2
(c).
Las races de P
1
son

() =

_
1 +
1

+
1
2V
+

_
_
1 +
1

+
1
2V
+

_
2
4
_
1


1
2V
+

_
2
.
(3.104)
Las races de P
2
son

() =

_
1 +
1

+
1
2V
+

_
_
1 +
1

+
1
4V
+

2
_
2
4
_
1


1
4
2
V
+
_
2
.
(3.105)
Como por hipotesis V
+
<
1
4
y >
1
2
se tiene
1


1
4
2
V
+
< 0 ,
por lo tanto las races de P
1
(c) son reales, una negativa,
1

(), y la otra
positiva
1
+
(). Lo mismo ocurre con P
2
(c), tiene una raz negativa,
2

() y
otra raz positiva,
2
+
().
Entonces
P
1
(c) 0 para
1

() c
1
+
() , (3.106)
P
2
(c) < 0 para
1

() < c <
2
+
() . (3.107)
Ademas

2
+
() <
1
+
() , (3.108)
117
esto ultimo se sigue de la expresion para cada uno de ellos y del hecho que
4
2
V
+
= 2(2V
+
) > (2V
+
) ya que >
1
2
.
Tambien es facil probar que
1
+
() < 1. As, si tomamos 0 < c() =

1
+
() < 1 se tiene que, para cualquier 0 < c < c()
P
1
(c) 0 ,
P
2
(c) < 0 ,
que es lo que deseabamos demostrar.
Resumiendo, con las condiciones de la proposicion 4, el sistema (3.74)
cumple con las condiciones del teorema 5, para cualquier 0 < c < c(). Esto
es lo que queramos demostrar.
Con la proposicion 4, hemos demostrado que si V
+
<
1
4
, > max
0
,
1
2
,
entonces el sistema (3.74) no puede tener soluciones homoclnicas para 0 <
c < c(), por lo tanto, la no existencia de ondas viajeras para la ecuacion
(3.59), cuando tomamos 0 < c < c().
Ahora pasaremos a analizar que sucede cuando tomamos > max
0
,
1
2

y c() < c < 1.


Para esto, consideremos, para > max
0
,
1
2
el espacio

=
__

_
: R R
2
:
_

_
es continua, | |
2

+ | |
2


2
_
.
Sabemos que

es un espacio de Banach. Consideremos la familia de


operadores integrales F
_
_

_
, c
_
denida por
F
__

_
, c
_
=
_

_
F
1
__

_
, c
_
, (3.109)
donde
F
1
__

_
, c
_
=
V
+
1 c
2
_

G(t , c)
_
0
c g

(())() g(())
_
d .
(3.110)
118
Para que F
_
_

_
, c
_
act ue de

, c debe cumplir con la condicion


(3.100). De aqu conclumos que aquellos valores de c para los cuales es posi-
ble encontrar soluciones homoclnicas del sistema (3.74), son los que cumplen

2
+
() < c <
1
+
() .
As consideremos
F :

(
2
+
(),
1
+
())

denido por (3.109) .


Como
_

0
0
_
es un punto estacionario del sistema (3.74) para cada 0 < c <
1, tenemos que
F
__

0
_
, c
_
= 0 para cada
2
+
() < c <
1
+
() .
Entonces, si lograramos probar que DF
__

0
0
_
, c
_
es invertible, y que se
cumplen las otras condiciones del teorema de la funcion implcita en un en-
torno de
__

0
0
_
, c
_
, se concluira que existen U, V vecindades de
_

0
0
_
y c res-
pectivamente, tal que para cada c

V , existe una unica L (c

) =
_

_
U
tal que
F
__

_
, c

_
= 0 ,
pero entonces,
_

_
sera una solucion acotada en R, no trivial del sistema
(3.74) y por lo tanto una solucion homoclnica del mismo sistema, a la cual
le correspondera una onda viajera de la ecuacion (3.59) con velocidad c

.
As que, en lo que sigue probaremos que el operador integral F con

1
+
() < c <
2
+
(), cumple con las condiciones del teorema de la funcion
implcita.
Vamos ahora a calcular la derivada de Frechet de F en
__

_
, c
_
con

1
+
() < c <
2
+
(). Por la forma que tiene F, basta calcular la derivada
de Frechet de la funcion F
1
. Ademas se tendra que
DF
__

_
, c
_
= I DF
1
__

_
, c
_
. (3.111)
119
Para hacer esto, calcularemos las derivadas de Gato de F
1
en
_

_
con res-
pecto a y respectivamente. Denotaremos estas derivadas por

F
1
__

_
, c
_
,

F
2
__

_
, c
_
respectivamente.
Lema 10 Bajo las condiciones de la proposicion 4, el operador integral F
denido en (3.110), es de clase C
1
en un entorno de
__

0
0
_
, c
_
. Ademas la
derivada parcial de Frechet de F con respecto a
_

_
, la cual denotamos por
DF
__

_
, c
_
, viene dada por
DF
__

_
, c
_
= I DF
1
__

_
, c
_
,
con
DF
1
__

_
, 0
_
=

F
1
__

_
, c
_
+

F
1
__

_
, c
_
(3.112)
y

F
1
__

_
, c
_
,

F
1
__

_
, c
_
son las derivadas de Gato, con respecto a y , respectivamente, las cuales
vienen dadas por

F
1
__

_
, c
_
(h) =
V
+
2
_
_
_
e
t
c+1
1 +c
_

t
_
e

c+1
_
c + 1
1
_
[ c g

(())() g

(() ]h()
_
d
+
e
t
c1
c + 1
_
t

_
e

c1
_
c 1
1
_
[ c g

(())() g

(()) ]h()
_
d
_
_
_
, (3.113)

F
1
__

_
, c
_
(k) =
V
+
c
2
_
_
_
e
t
c+1
1 + c
_

t
e

c+1
_
c + 1
1
_
g

(())k() d
+
e
t
c1
1 + c
_
t

c1
_
c 1
1
_
g

(())k() d
_
_
_
. (3.114)
120
Demostracion.
Observemos que
F
1
__

_
, c
_
=
V
+
2
_
_
_
e
t
c+1
1 +c
_

t
_
e

c+1
_
c + 1
1
_
c g

(())() g(())
_
d
+
e
t
c1
c + 1
_
t

_
e

c1
_
c 1
1
_
(c g

(())() g(())
_
d
_
_
_
. (3.115)
Calculemos la derivada de Gato de F
1
en el punto
__

_
, c
_
con respecto
a

F
1
__

_
, c
_
(h) = lim
0
_
_
F
1
__
+h

_
, c
_
F
1
__

_
, c
_

_
_
=
V
+
2
_
_
_
lim
0
_
_
e
t
c+1
1 + c
_

t
e

c+1
_
c + 1
1
__
c
_
( g

(() + h()) g

(()))()

_
g(() + h() g(())

__
d
+
e
t
c+1
c + 1
_
t

c+1
_
c 1
1
__
c
_
( g

(() + h()) g(()))()

_
g(()) + h() g(())

__
d
__
.
Entonces

F
1
__

_
, c
_
(h) =
121

V
+
2
_
_
_
e
t
c+1
1 + c
_

t
_
e

c+1
_
c + 1
1
_
[c g

(())()h() g

(())h()]
_
d
+
e
t
1+c
1 + c
_
t

_
e

c1
_
c 1
1
_
[c g

(()()h() g

(())h()]
_
d
_
_
_
.
De manera similar, se obtiene la derivada de Gato de F
1
en
__

_
, c
_
con
respecto a

F
1
__

_
, c
_
(k) =
V
+
c
2
_
_
_
e
t
c+1
c + 1
_

t
e

c+1
_
c + 1
1
_
g

(())k()d
+
e
t
c1
1 + c
_
t

c1
_
c 1
1
_
g

(())k()d
_
_
_
.
Ademas,

F
1
__

_
, c
_
,

F
1
__

_
, c
_
son lineales como funcion de h y k
respectivamente y continuas como funcion de
_

_
, se tiene que la derivada de
Frechet de F
1
con respecto a
_

_
existe y se puede calcular con la expresion
(3.112).
Tambien es facil probar que DF
__

_
, c
_
es continua en un entorno de
(
_

_
, c ).
Lema 11 Bajo las condiciones de la proposicion 4, DF
__

0
0
_
, c
_
es un op-
erador invertible.
Demostracion.
Como
DF
__

0
0
_
, c
_
= I DF
1
__

0
0
_
, c
_
,
122
basta probar que
_
_
_
_
_
DF
1
__

0
0
_
, c
__
_
_
_
_
< 1 .
Evaluando (3.112) en
__

0
0
_
, c
_
obtenemos
DF
1
__

0
0
_
, c
__
h
k
_
=

F
1
__

0
0
_
, 0
_
(h) +

F
1
__

0
0
_
, c
_
(k) , (3.116)
entonces
_
_
_
_
_
DF
1
__

0
0
_
, c
__
h
k
__
_
_
_
_

_
_
_
_
_

F
1
__

0
0
_
, c
_
(h)
_
_
_
_
_

+
_
_
_
_
_

F
1
__

0
0
_
, c
_
(k)
_
_
_
_
_

.
(3.117)
Obtengamos estimados para
_
_
_
_
_

F
1
__

0
0
_
, c
__
_
_
_
_

,
_
_
_
_
_

F
1
__

0
0
_
, c
__
_
_
_
_

.
Evaluando (3.113) en
__

0
0
_
, c
_
obtenemos

F
1
__

0
0
_
, c
_
(h) =

V
+
g(
0
)
2
_
_
_
e
t
c+1
c + 1
_

t
e

c+1
_
c + 1
1
_
h()d +
e
t
c1
1 + c
_
t

c1
_
c 1
1
_
h()d
_
_
_
+
V
+
c g

(
0
)
2
_
_
_
e
t
c+1
c + 1
_

t
e

c+1
_
c + 1
1
_
k()d
e
t
c1
c + 1
_
t

c1
_
c 1
1
_
k()d()
_
_
_
,
entonces
_
_
_
_
_

F
1
__

0
_
, c
_
(h)
_
_
_
_
_

V
+
g

(
0
)
2
_
_
_

c
2
+ 2c + 2
e
t
c+1
c + 1
_

t
e

c+1
d | h |

c
2
2c + 2
e
t
c1
1 +c
_
t

e

c1
d | h |

_
_
_
.
123
Calculando las integrales impropias y simplicando
_
_
_
_
_

F
1
__

0
0
_
, c
_
(h)
_
_
_
_
_

V
+
g(
0
)
2
_

c
2
+ 2c + 2 +

c
2
2c + 2
_
| h |

.
Para 0 < c < 1 se tiene que

c
2
+ 2c + 2 es creciente,

c
2
+ 2c 2 es decreciente.
As se tiene que
_
_
_
_
_

F
1
__

0
0
_
, c
_
(h)
_
_
_
_
_

V
+
g

(
0
)
2
_

5 +

2
_
| h |

. (3.118)
De manera similar se obtiene
_
_
_
_
_

F
1
__

0
0
_
, c
_
(k)
_
_
_
_
_

V
+
g

(
0
)c
2
_

5 +

2
_
| k |

. (3.119)
Sustituyendo (3.118), (3.119) en (3.117), obtenemos
_
_
_
_
_
DF
1
__

0
0
_
, c
__
h
k
__
_
_
_
_

V
+
g

(
0
)
2
(1 +c)
_

5 +

2
_
_
_
| h |
2

+ | k |
2

_
.
Como 0 < c < 1 y V
+
<
1
4
obtenemos
_
_
_
_
_
DF
__

0
0
_
, c
__
h
k
__
_
_
_
_
< 1,
que es lo que queramos probar.
Finalmente, tenemos el siguiente teorema.
124
Teorema 6 Supongamos que en el sistema (3.74), la funcion g tiene la
forma
g() =
1
1 + e
+
, , > 0
y que V
+
<
1
4
. Entonces para cada > max
0
,
1
2
, existen c
1
(), c
2
()
con 0 < c
1
() < c
2
() < 1, tales que, para cada c, que cumpla 0 < c < c
1
(),
la unica solucion acotada de este sistema, contenida en la bola cerrada [0, ],
es la solucion estacionaria
_

0
0
_
. Mientras que, para cada c, con c
1
() c
c
2
(), existe una solucion acotada, no trivial, del sistema, la cual tambien es
una solucion homoclnica, y a la que le corresponde una onda viajera de la
ecuacion (3.59) con velocidad v. La velocidad real de traslacion de esta onda
viajera es cV
+
. Ademas c
1
(), c
2
() son las races positivas de los polinomios
cuadraticos denidos en (3.100), (3.101).
Demostracion.
La existencia de c
1
(), fue demostrada en la proposicion 4. Por los lemas
10 y 11 el operador integral F denido en (3.101) cumple con las condi-
ciones del teorema de la funcion implcita en un entorno de
__

0
0
_
, c
_
, es
decir, F
__

_
, c
_
es de clase C

en un entorno de
__

0
0
_
, 0
_
, F
__

0
0
_
, c
_
= 0 y
DF
__

0
0
_
, c
_
es invertible. Entonces existen entornos U y V de
_

0
0
_
y c res-
pectivamente tales que, para cada c

V , existe un unico elemento


_

_
U
no trivial tal que
F
__

_
, c

_
= 0 .
Entonces
_

_
es una solucion no trivial, acotada de (3.80) y por el teorema
3,
_

_
es una solucion acotada, no trivial del sistema (3.74), la cual, por el
lema 6, es una solucion homoclnica del sistema (3.74).
3.4 ONDAS ESTACIONARIAS EN LA CORTEZA
CEREBRAL.
125
En esta seccion estudiaremos las oscilaciones peque nas con la misma
frecuencia angular w para cada x R de la ecuacion

2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+

2
u
x
2
=
V
+

+
v
+
_

+
v
+
g(u) + g

(u)
u
t
_
(3.120)
alrededor de un estado de reposo de la misma (una solucion u(x, t) u
0
).
Este problema corresponde a considerar una banda circular de ancho
innitamente peque no de corteza cerebral. Lo que queremos saber es si
en nuestro modelo existen ondas estacionarias que se correspondan con los
ritmos basicos del cerebro.
Para estudiar este problema consideraremos una solucion u(x, t) u
0
de
la ecuacion (3.120). Tomaremos la parte lineal de esta ecuacion alrededor de
u
0
y en la ecuacion lineal buscaremos soluciones de la forma
u(x, t) = u
0
+L(x)e
iwt
, (3.121)
con L(x) una funcion periodica real, de periodo 2 y L(x) peque no.
126
Observaci on.
En realidad, lo que buscamos son soluciones de la ecuacion lineal de la
forma
u(x, t) = u
0
+A(x) cos wt
donde A(x) es una funcion periodica real, de periodo 2. Pero como se tiene
una ecuacion lineal, basta encontrar soluciones de la forma (3.121) y despues
tomar la parte real de estas soluciones.
Ahora, si u(x, t) u
0
es una solucion de (3.120) la parte lineal de esta
ecuacion alrededor de u
0
es

2
u
t
2
+
+
v
+
(2 V
+
g

(u
o
))
u
t
+ [(
+
v
+
)
2
(1 V
+
g

(u
0
))] u v
2
+

2
u
x
2
= 0
(3.122)
donde
u = u u
0
Teorema 7 Sea u
0
(0, V
+
) tal que, g

(u
0
) =
2
V
+
, supongamos ademas que
1
2
+
> 0. Entonces la ecuacion (3.122) tiene soluciones de la forma
u(x, t) = L(x)e
iwt
,
con L(x) una funcion periodica real, de periodo 2. Mas concretamente, si
w = v
+
_
_
1
2
+
_
, (3.123)
entonces
u(x, t) = A
1
cos xe
iwt
(3.124)
con A
1
constante, es una solucion de (3.122).
127
Observaci on
Como g

(u
0
) =
2
v
+
, esto nos garantiza que
u(x, t) u
0
es solucion de la ecuacion (3.120).
Demostracion.
Sea w como en (3.123). Obtengamos las derivadas de (3.124)
u
t
= (iw)A
1
cos xe
iwt
,
u
x
= A
1
sen xe
iwt
,

2
u
t
2
= w
2
A
1
cos xe
iwt
,

2
u
x
2
= A
1
cos xe
iwt
.
Sustituyendo estas derivadas en la ecuacion (3.122) obtenemos
w
2
A
1
cos xe
iwt
+
+
v
+
(2 V
+
g

(u
0
))iwA
1
cos xe
iwt
+[(
+
v
+
)
2
(1 V
+
g

(u
0
)]A
1
cos xe
iwt
+v
2
+
A
1
cos xe
iwt
=
(
2
+
1)v
2
+
A
1
cos xe
iwt
+ (
+
v
+
)
2
A
1
cos xe
iwt
+v
2
+
A
1
cos xe
iwt
= 0 ,
ya que g

(u
0
) =
2
V
+
y w = v
+
_
1
2
+
.
128
CONCLUSIONES.
El principal modelo que hemos estudiado, a pesar de ser un modelo que
tiene algunas simplicaciones importantes : modelo unidimensional sin cur-
vatura, considerar una distribucion de conexiones que depende unicamente de
la distancia entre columnas y con escalas de decrecimiento que no dependen
de las regiones corticales consideradas, las complicaciones intra e intercorti-
cales estan incluidas en las funciones R

, no tomar en cuenta explcitamente


la actividad neuroqumica, etc., nos ha permitido obtener un conjunto de
resultados que pueden ser sujetos a ser estudiados experimentalmente y que
en principio coinciden cualitativamente con algunos datos experimentales ya
conocidos. Se debe destacar la relativa simplicidad del modelo obtenido y
la posibilidad inmediata de incluir, aunque sea parcialmente, algunos ele-
mentos no considerados en el modelo principal como por ejemplo, escalas de
decrecimiento que dependan de las regiones de corteza considerada, que la
funcion de generacion de potenciales de accion g dependa de la columna y
de la funcion de activacion (ver el modelo de la seccion 2.8) ademas de la
posibilidad de construir un modelo matematico bidimensional de la corteza
cerebral que ademas incluya, aunque sea parcialmente, la geometra real de la
corteza cerebral. Obviamente el estudio matematico de este problema resulta
mucho mas complejo. Consideramos que todo lo anteriormente enunciado,
son los elementos mas valiosos de la tesis.
La inclusion en el modelo de la actividad neuroqumica nos parece que
es un problema sumamente complejo pero en primera aproximaci on, con-
siderando que la liberacion de neurotransmisores es proporcional a la activi-
dad sinaptica, podra ser incluida en el mismo.
A continuacion enlistamos las principales conclusiones de nuestro trabajo.
1. En este trabajo se han continuado desarrollando las ideas de Nu nez,
[86], [87], [89], [92], en al menos dos direcciones : se han introducido
modicaciones y agregado nuevos elementos al modelo. Ademas el
tratamiento matematico del modelo ha sido diferente y mas completo
que el que le dio Nu nez.
2. En cuanto a resultados, se ha demostrado, que bajo ciertas condi-
ciones,(teorema 6) existen ondas viajeras de actividad cortical que se
propagan por la corteza cerebral con una velocidad de propagacion
menor que la velocidad de propagacion de la actividad excitatoria.
129
Tambien se ha demostrado,(teorema 2) que la actividad cortical de una
rebanada de corteza se puede acoplar con la de una entrada aferente
periodica sostenida. Esto ha sido demostrado experimentalmente [25],
[78]. Ademas en estos trabajos tambien se concluye, experimental-
mente, el papel controlador de la actividad inhibitoria en la corteza.
Lo cual probamos en el teorema 3.
3. Los resultados obtenidos,(teorema 2, 6, 7) corresponden a estados -
siologicos muy especiales, esto ultimo se reeja en las restricciones
impuestas a la funcion de activacion neuronal. Consideramos que es
necesario estudiar, posteriormente, la signicacion siologica de estas
restricciones.
4. Hemos obtenido un modelo (seccion 2.8), que en conjunto con estudios
del problema inverso electroencefalograco, nos permitira estudiar, pos-
teriormente, el diagrama de conexiones funcionales y de la funcion de
activaci on neuronal en un estado siologico determinado.
5. El modelo compartimentado (2.8) puede ser usado para el estudio de
otros sistemas del cerebro, como el sistema de los ganglios basales y el
sistema lmbico.
6. Posteriormente sera necesario realizar simulaciones computacionales de
las soluciones del modelo con diversos valores de los parametros involu-
crados y compararlos con mediciones experimentales.
130
Bibliografa
[1] Abbott, L. F. [1990] : A network of oscillators, J. Phys. A. Math.
Gen. 23 : 3835-3859.
[2] Abbot, L. F., F., Kepler, T. B. [1990] : Model neurons from
Hodgkin-Huxley to Hopeld In : Garrido (ed) Statistical mechan-
ics of neural networks. Springer, Berlin, Heidelberg, New York.
[3] Abeles, M. [1982] : Local Cortical Circuits in Studies in Brain
Function 6, Springer Verlag, New York.
[4] Amick, C, J, [1991] : A problem in neural networks. Proceedings
of the Royal Society of Edinburgh. 118 : 225-236.
[5] Amari, S. [1972] : Competitive and cooperative aspects in dy-
namics of neural excitation and self-organization, IEEE Trans on
computers.
[6] Amari, S. [1982] : A mathematical theory of self-organizing nerve
sytems. In Proceedings of Biomathematics : Current Status and
Perspectives. Ricciardi, L. M., Scott, A., ed.
[7] Amari, S., Arbib, M. A (eds) [1982] : Competition and Coopera-
tion in Neural Networks, Springer Verlag, New York.
[8] Amari, S., Takeuchi, A. [1978] : Mathematical theory on formation
of category detecting nerve cells. Biol. Cybernetics 29. 127-136.
[9] Amir, A. [1994] : Uniqueness of the generators of brain evoked
potential maps, IEEE Trans. on Biomedical-Engineering. Vol.
41,no.1-11.
131
[10] Andersen, P., Andersson, S.A. [1968] : Physiological basis of the
alpha rhytm. Appleton-Century-Crofts, New York.
[11] Anderson, J. A., Rosenfeld, E. [1988] : Neurocomputing Founda-
tion of Research. Cambridge. The M.I.T. Press.
[12] Beale, R.,Jackson, T. [1994] : Neural Computing : An Introduc-
tion, Institute of Physics Publishing, Bristol and Philadelphia.
[13] Baumgartel, H. [1985] : Analytic Perturbation Theory for Matrices
and Operators. Birkhauser Verlag Basel. Boston-Stuttgart.
[14] Bogacz, J. y colaboradores. [1985] : Los potenciales evocados en
el hombre. Ateneo, Buenos Aires.
[15] Bower, J. M. [1992] : Modeling the nervous system. Trends in
Neuroscience 15 : 411-412.
[16] Buchholtz, F., Golowasch, J., Epstein, I. R., Marder, E. [1992]
: Mathematical model of an identied stomatogastric neuron.
J.Neurophysiol. 67 : 332-340.
[17] Cardinali, D. P. [1992] Manual de Neurosiologa. Ediciones Daz
de Santos, S.A. Madrid, Espa na.
[18] Chauvet, G. A. [1993a] : Non-locality in biological systems results
from hierarchy. Application to nervous system. Journal Math. Biol.
31. 475-486.
[19] Cichocki, A., Unbehauen, R. [1993] : Neural Networks for Opti-
mazation and Signal Processing, John Wiley, New York.
[20] Coro, F. [1996] : Fisiologa Celular, Un enfoque biofsico, Textos
Cientcos , BUAP, Puebla.
[21] Cronin, J. [1987] : Mathematical aspects of Hodgkin-Huxley neural
theory, Cambridge University Press.
[22] Cun, B.N. [1987] : The role of model and computacional exper-
iments in the biomagnetic inverse problem.Phys.Med.Biol.
132
[23] Daleckii, Ju. L., Krein, M. G. [1974] : Stability of Solutions of
Dierential Equations in Banach Space. American Mathematical
Society, Providence, Rhode Island.
[24] Destexhe, A., Contreras, D., Sejnowski, T. J., Steriade, M. [1994]
: A model of spindle rhytmicity in the isolated thalamic reticular
nucleus. Journal of Neurophysiology. Vol. 72, No. 2. 803-1818.
[25] Dickson, C. T., Alonso, A [1997] : Muscarinic induction of Syn-
chronous population activity in the entorhinal cortex. Journal of
Neuroscience. 17 (17:6729-6744).
[26] Doya, K., Selverston, A.I. [1993] : Dimension reduction of biologi-
cal neuron models by articial neural networks, Neural Comp. Vol.
6 no. 4 : 697-717.
[27] Farkas, Miklos. [1994] : Periodics Motions, Springer Verlag, New
York.
[28] Fitzhugh, R. [1961] : Impulses and physiological stages in theoret-
ical models of nerve membrane. Biophys, J. 1 : 445-466.
[29] Fitzhugh, R. [1969] : Mathematical models of excitation and prop-
agation in nerve. In Biological Engineering H.P. Schwann.Mc Graw
Hill Publications, New York.
[30] Flores, G. [1991] : Stability Analysis for the Slow Traveling Pulse
of the Fitzhugh-Nagumo System, Siam J. Math. Anal. Vol. 22, no.
2, 392-399.
[31] Freeman J. A., Skapura, D.M. [1993] : Redes Neuronales. Algo-
ritmos, aplicaciones y tecnicas de programacion. Addison-Wesley
Iberoamericana Wilmington, Delaware. U.S.A.
[32] Freeman, W.J.[1975] : Mass Action in the Nervous System, Aca-
demic Press, New York.
[33] Freeman, W.J. [1979] : Nonlinear dynamics of paleocortex mani-
fested in olfactory EEG, Biological Cybernetics. 35 : 21-37.
133
[34] Freeman, W. J. [1992] : Predictions on neocortical dynamics de-
rived from studies in paleocortex. In : Induced rhythms of the
brain, ed. E.Basar, T. H. Bullock. Birkhauser Boston Inc. 183-201.
[35] Freeman, W. J. [1994] : Neural mechanisms underlying destabi-
lization of cortex by sensory input. Physica D 75 : 151 - 64.
[36] Fukushima, K. [1975] : Cognitron : a self organizing multilayered
neural network, Biolog. Cybernetics. Vol. 20 : 121-136.
[37] Fukushima, K. [1980] : Neocognitron : a self organizing neural
network model for a mechanism of pattern recognition unaected
by shift in position, Biolog. Cybernetics. Vol. 36,193-202.
[38] Galusinski, C. [1998] : Existence and Continuity of Uniform Ex-
ponential Attractors of the Singularity Perturbed Hodgkin-Huxley
System. Journal of Dierential Equations. 144 : 99-169.
[39] Golomb, D., Guckenheimer, J., Gueron, S. [1993] : Reduction of a
Channel Based Model for a Stomatogastric Ganglion LP Neuron.
Biol. Cybern. 68 : 129-137.
[40] Golomb, D., Rinzel, J. [1993] : Dynamics of globallly coupled
inhibitory neurons with heterogeneity., Physical Review. E. Vol.
48,no. 6.
[41] Golomb, D., Rinzel, J. [1994] : Clustering in globally coupled in-
hibitary neurons. Physics D. 72 : 259-282.
[42] Golomb, D., Wang, X. J., Rinzel, J. [1994] : Synchronization
Properties of Spindle Oscillations in a Thalamic Reticular Nucleus
Model. J. Neurophysiology. Vol. 72, no.3, 1109-1126.
[43] Grossberg, S. [1976] : Adaptative pattern classication and uni-
versal recording. Biolog. Cybernetics. Vol. 23 : 121-134 y 187-202.
[44] Guckenheimer, J., Holmes, P. [1983] : Nonlinear oscillations dy-
namical systems, and bifurcations of vector elds. Springer, Berlin,
Heidelberg, New York.
134
[45] Hale, J. K. [1963] : Oscillations in Nonlinear Systems. Dover, New
York.
[46] Hale, J. K. [1969] : Ordinary Dierential Equations. Wiley Inter-
science. New York, London, Sydney, Toronto.
[47] Hale, J. ; Kocak, H. [1991] : Dynamics and Bifurcations, Springer
Verlag, New York.
[48] Hastings, S. [1975/1976] : On traveling wave solutions of the
Hodgkin-Huxley equations, Arch. Rational Mech. Anal. 60 : 229-
257.
[49] Hastings, S. [1976] : On existence of homoclinic and periodic orbits
for the Fitzhugh-Nagumo equations,Quart J. Math.27 : 123-134.
[50] Hebb, D. O. [1949] : The organization of behavior. Wiley, New
York.
[51] Heiner, L. ; Zaborszky, L. [1989] : Neuroanatomical TractTracing
Methods 2. Plenum Press. New York and London.
[52] Heller, L. [1990] : Return Current in encephalography Variationals
Principles, Biophysical Journal. Vol. 57 : 601-606.
[53] Herman G. T. [1980] : Image reconstruction from projections. The
fundamental of computerized tomography. Academic Press.
[54] Herman G. T., Tuy H. K., Langenberg K. J., Sabatier P.C. [1985]
: Basic methods of tomography and inverse problems. Malvern
Physics Series.
[55] Hilera, J. R., Martnez, V. J. [1995] : Redes neuronales articiales.
Fundamentos, modelos y aplicaciones. Addison-Wesley Iberoamer-
icana. Madrid, Espa na.
[56] Hinton, G. Ackley, D. Sejnowski, T. [1984] : Boltzman machines
: Constraint satisfaction networks than learn. Carnegie-Mellon
University, Departament of Computer Science Technical Report.
(CMU-CS-84-119).
135
[57] Hodgkin, A. L. ; Huxley, A.F. [1952] : A quantitative description of
membrane current an its application to conductance and excitation
in nerve, J. Physiol. Lond.117 : 500-544
[58] Holden, A. V., Hyde, J., and Muhamad, M. A. [1991] : Equilibria,
Periodicity, Bursting and Chaos in Neural Activity, in Pasemann,
F., and Doebner, H. D. (eds), World Scientic Pub., Singapore :
97-187.
[59] Hopeld, J. J. [1982] : Neural networks and physical systems with
emergent collective computational abilities, Proc. Natl.Acad.Sci.
79 : 2554-58.
[60] Hopeld, J. J [1984] : Neurones with graded response have collec-
tive computational propierties like those of two states neurones.
Proccedings of National Academy of Science. 81 : 3088-92
[61] Hoppensteadt, F. [1986] : An Introduction to the Mathematics of
Neurons, Cambridge University Press.
[62] Hoppensteadt, F.C. [1993] : Analysis and Simulation of Chaotic
Systems, Springer Verlag, New York.
[63] Hoppensteadt, F., Izhikevich, E. M. [1997] : Weakly Connected
Neural Networks. Springer Verlag. New York, Inc.
[64] Ingber, L. ; Nu nez P. [1990] : Multiple scales of statistical physics
of Neocortex. Aplication to the Electroencephalography. Mathe-
matical and Computer Modelling.
[65] Ingber, L. [1991] : Statistical mechanics of neurocortical inter-
actions : A scaling paradigm applied to electroencephalography.,
Physical Review. A 44 : 4017-60.
[66] Ingber, L. [1994] : Statistical Mechanics of Multiple Scales of Neo-
cortical Interactions.
[67] Ingber, L. [1994] : Statistical Mechanics of Neocortical Interac-
tions. : Path-integral evolution of Short-term memory. Physical
Review E 49 : 4652-64.
136
[68] Ingber, L. [1995] : Statistical mechanics of multiple scales of neo-
cortical interactions. In : Neocortical dynamics and human EEG.
rhythms, ed. P.L. Nu nez. Oxford University Press.
[69] Jahnsen, H. ; Llinas, R. [1984a] : Electrophysiological properties
of guinea-pig thalamic neurons : An in vitro studio. J. Physiol.
(London). 349 : 205-226.
[70] Jahnsen, H. ; Llinas, R. [1984b] : Ionic basis for the electrorespon-
siveness and oscillatory properties of guinea-pig thalamic neurons
in vitro. J. Physiol. (London) 349 : 227-2447.
[71] Kandel, E. R., Schwartz, J. H. ; Jessell, T. M. [1997] : Neurociencia
y conducta. Prentice Hall. Madrid.
[72] Katznelson, R. D. [1981] : Normal modes of the brain : Neu-
roanatomical basis and a physiological theoretical model. In : Elec-
tric elds of the brain : The Neurophysics of EEG. P.L. Nu nez.
Oxford University Press. New York.
[73] Kepler, T. B., Abbot, L. F., Marder, E. [1992] : Reduction of
conductance based neuron models. Biol. Cybern. 66 : 381-387.
[74] Kevorkian, J., Cole, J. D. [1996] : Multiple Scale and Singular
Perturbation Methods, Springer-Verlag, New York, Inc.
[75] Lopes da Silva, F. H. [1991] : Neural mechanisms underlying brain
waves : From neural membranes to networks electroencephagr.
Clin. Neurophysiol. 79 : 81-93.
[76] Lopes da Silva, F. H., van Rotterdam, A., Barts, P., van Heusden,
E., Burr, B. [1976] : Models of neurones populations the basic
mechanism of rhytmicity. Progress in Brain Research. 45 : 282-
308.
[77] Lopes da Silva, F. A. ; Hoeks, A., Smiths, H. and Zettergerg L. H.
[1974] : Model of Brain Rhytmic Activity, Kybernetik. 15 : 27-37.
[78] Lukatch, H. S.; Mac Iver, B. [1997] : Physiology, Pharmacol-
ogy and Topography of cholinergic neocortical oscillations in vitro.
Journal of Neuroscience. 2427-2444.
137
[79] Mac. Gregor, R. J. [1987] : Neural and Brain Modeling. Academic
Press, Inc. San Diego. Cal.
[80] Mc Culloch, W. S. ; Pitts, W. H. [1943] : A logical calculus of ideas
immanent in nervous activity, Bull. Math. Biophys. 5 : 115-33.
[81] Menon, V. [1991] : Population oscillations in neuronal groups.
International Journal of Neural Systems. Vol. 2, no. 3, 237-62.
[82] Mischenko, E. F.; Rozov, N. Kh. [1980] : Dierential Equations
with Small Parameters and Relaxation Oscillations, Plenum, New
York.
[83] Mountcastle, V. B. [1978] : An organizing principle for cerebral
function : the unit module and the distributed system. In : The
Mindful Brain : Cortical Organization and the Group Selective
theory of Higher Function, ed. G. M. Edelman and V. B. Mount-
castle. MIT Press, Cambridge.
[84] Mountcastle, V. B. [1998] : Perceptual Neuroscience the Cerebral
Cortex. Harvard University Press. Cambridge, Massachusetts, and
London, England.
[85] Natterer, F. [1986] : The mathematics of Computerized Tomogra-
phy. Teubner, Stuttgart.
[86] Nu nez, P. L. [1981] : A study of origins of the time dependencies
of scalp EEG : I. Theoretical basis, IEEE Trans. Bio-Med Eng. 28
: 271-280, 1981b.
[87] Nu nez, P. L. [1981] : A study of origins of the time dependencies of
scalp EEG: II. Experimental support of theory,IEEE Trans. Bio-
Med Eng. 28 : 281-288, 1981c.
[88] Nu nez, P. L. [1988] : Global Contribution to cortical dynamics :
theoretical and experimental evidence for standing waves phenom-
ena. In : Dynamics of Sensory and Cognitive Processing by the
Brain. (E. Baser, Ed.). Springer Verlag. New York.
138
[89] Nu nez, Paul L; Katznelson, R. D. [1981] : Electric Fields on the
Brain, the Neurophysics of EEG, Oxford University Press, New
York.
[90] Nu nez, P. [1989] : Generation of Human EEG by a combination of
long and short range neurocortical interactions, Brain topography.
1 : 199-215.
[91] Nu nez, P., Srinivasan, R. [1993] : Implications of recording
strategy for estimates of neurocortical dynamics with electroen-
cephalography chaos. 3 : 257-66.
[92] Nu nez, P. L. [1995] : Neocortical Dynamics and Human EEG Ry-
thms, Oxford University Press.
[93] Plonsey, R. [1969] : Bioelectric Phenomena, Mc Graw Hill, New
York.
[94] Petsche, H., Sterc, J. [1968] : The signicance of the cortex for
the traveling phenomenon of brain waves. Electroencephalography
and Clinical Neurophysiology. 25 : 1222.
[95] Rall, W., Shepherd, G. M. [1968] : Theoretical reconstruction of
eld potentials and dendrodendritic synaptic interactions in olfac-
tory bulb. J. Neurophysiol. 31 : 884-915.
[96] Ramacher, U. [1993] : Hamiltonian Dynamics of Neural Networks.
Neural Networks. 6 : 547-557.
[97] Rinzel, J. ; Ermentrout, G. B. [1989] : Analysis of neural ex-
citability and oscillations. In Methods of neural Modelling : From
Synapses to networks (C. Koch and I. Segev. Eds), Cambridge,
MA : MIT Press.
[98] Rosenblatt, F. [1957] : The perception a perceiving and recognizing
automation, , Cornell Aeronautical Laboratory Report.
[99] Rose, R. M. ; Hindmarsh, J. L. [1985] : A model of a thalamic
neuron, Proc. R. Soc. Lond.
139
[100] Rush, M. E., Rinzel, J. [1994] : Analysis of bursting in a thalamic
neuron model. Biol. Cybern. 71, 281-291.
[101] Sanchez, F., Maini, P. K. [1997] : Travelling wave phenomena
in non-linear diusion degenerate Nagumo equations. Journal of
mathematical biology, 35 : 713-728.
[102] Sanchez, F., Maini, P. K. [1997] : Travelling wave phenomena in
some degenerate reaction diusion equations. Journal of dieren-
tial equations. Vol. 117, no. 2 : 281-319.
[103] Sarvas, J. [1987] : Basic Mathematical and Electromagnetic Con-
cepts of the Biomagnetic Inverse Problem. Phys. Med. Biol. Vol.32,
no.1 : 11-22.
[104] Silberstein, R. B. [1994] : Neuromodulation of neocortical dynam-
ics. In : Neocortical dynamics and human EEG rhythms. ed. P. L.
Nu nez. Oxford University Press.
[105] Silberstein, R. B. [1994] : Steady-State Visually Evoked Poten-
tials, Brain Resonances, and Cognitive Processes In : Neocortical
dynamics and human EEG rhythms. ed. P. L. Nu nez. Oxford Uni-
versity Press.
[106] Smith, C. U. M. [1982] : El cerebro. Sexta ed. Alianza Universidad
Madrid.
[107] Somogyi, P. ; Tamas, G. ; Lujan, R., Buhl, E. [1998] : Salient fea-
tures of synaptic organisation in the cerebral cortex. Brain research
reviews, 26 : 113-135.
[108] Temam, R. [1998] : Innite-Dimensional Dynamical Systems. 2 ed.
Springer Verlag, New York, Berlin, Heidelberg.
[109] Tijonov A.N., Goncharsky A.V. [1987] : Problemas mal planteados
de las ciencias naturales. (Editorial de la Universidad Estatal de
Mosc u).
[110] Tikhonov, V. S. [1985] : Dierential Equations. Springer Verlag.
Berlin , Heidelberg.
140
[111] Troy, W. C. [1978] : The bifurcation of periodic solutions in the
Hodgkin-Huxley equations. Quart. Appl. Math., Vol. 36, 73-83.
[112] Tyson, J. J. ; Keener, J. P. [1988] : Singular Perturbation Theory
of Traveling Waves in Excitable Medic (a review). Physica.D 32 :
327-361.
[113] van Rotterdam, A., Lopes da Silva, F. H., van den Ende, J.,
Viergeuer, M. A., Hermans, A. J. [1982] : A model of the spatical-
temporal characteristics of the alpha rhytm. Bull. Math. Biol. 4e :
283-305.
[114] Wang, X. J. ; Rinzel, J.[1993] : Spindle rhythmicity in the reticu-
laris thalami nucleus : synchronization among mutually inhibitory
neurons. Neuroscience. 53 : 899-904.
[115] Wang, X. J. [1994] : Multiple dynamical modes of thalamic re-
lay neurons : Rhythmic bursting and intermittent phase-locking.
Neuroscience. Vol. 59, no.1, 21-31.
[116] Weiss, T. F. [1996] : Celular biophysics, Vol. 1, Transport. MIT
Press, Cambridge, MA.
[117] Weiss, T. F. [1996] : Celular biophysics, Vol. 2, Electrical proper-
ties. MIT Press, Cambridge, MA.
[118] Widrow, B., Ho, M. [1960] : Adaptative Switching Circuits
IREWESCON Convention Record, Part 4, 96-104.
[119] Wilson, H. R., Cowan, J. D. [1972] : Excitatory and inhibitory
interaction in localized populations of model neurons. Biophys.
Journal 12. 1-24.
[120] Wilson, H. R., Cowan, J. D. [1973] : A mathematical theory of
the functional dynamics of cortical and thalamic nervous tissue.
Kybernetik 13. 13-80.
[121] Wright, J.J. ; Liley, T. J. [1996] : Dynamics of the Brain at Global
and Microscopic scales : Neural Networks and the EEG, Behav-
ioral and the brain sciences. 19 : 285-320.
141

Вам также может понравиться