Академический Документы
Профессиональный Документы
Культура Документы
IA
Una exposicion detallada de los temas expuestos en esta seccion y la
siguiente se puede encontrar en [17], [20], [71], [106], [116], [117].
Las neuronas del cerebro presentan una gran variedad de formas y
tama nos, (Fig. #1) , pero en todas ellas se pueden identicar cuatro partes
(Fig. #2):
1. El cuerpo celular o soma.
2. Las dendritas.
3. El axon.
4. Los terminales axonicas o sinapticas.
En el funcionamiento de la neurona, cada una de estas partes tiene un
papel especco:
1. El cuerpo celular es el centro metabolico de la neurona y el lugar donde
se procesa la informacion. Su diametro vara de 5 a 100.
4
2. Las dendritas son el centro receptor de la informacion de la neurona.
Por lo general, la neurona recibe la informacion (en su mayor parte de
tipo electrico) a traves de las dendritas, aunque algunas veces la recibe
directamente a traves del cuerpo celular.
3. El axon es una bra nerviosa que nace del cuerpo celular y es el en-
cargado de transportar las se nales que genera la neurona, en ocasiones
transportando la se nal a distancias considerables. El diametro de los
axones en humano, vara de 0.1 a 20. Frecuentemente los axones
estan envueltos en una vaina grasa, denominada mielina. La vaina esta
dividida por espacios regulares sin mielina, llamados nodos de Ran-
vier. La mision de la vaina de mielina es aumentar la velocidad de
propagacion de las se nales generadas por la neurona.
4. Los terminales axonicos o sinapticos constituyen los elementos de trans-
mision de la neurona. A traves de ellos una neurona contacta y trans-
mite la informacion a la zona receptora de otra neurona. La zona
de contacto se llama sinapsis y por lo general la zona postsinaptica se
ubica en las dendritas, aunque tambien ocurren contactos sinapticos en
el cuerpo celular de la neurona y algunas veces en el axon de la neurona.
Existen aproximadamente 10
4
contactos sinapticos por neurona.
En condiciones de reposo, toda la neurona (cuerpo celular, soma, den-
dritas) esta polarizada de manera tal que el interior tiene un potencial de
-70 mV , considerando que la supercie externa de la membrana es el nivel
de referencia, es decir, tiene potencial cero. Este potencial de la neurona es
llamado potencial de reposo de la membrana. El potencial de reposo puede
variar, dependiendo del tipo de neurona, pero el interior de la membrana de
la neurona queda siempre cargado negativamente, con respecto al exterior
de la misma. Ademas este potencial puede cambiar en respuesta a diversos
estmulos como temperatura, PH, concentraciones extracelulares de iones,
corrientes electricas, etc.
Como ya mencionamos anteriormente la neurona recibe la informacion
(de otras neuronas o informacion producida por medios articiales) a traves
de las dendritas. Esta informacion se presenta como un cambio en el po-
tencial electrico en las dendritas; que llamaremos potenciales postsinapticos.
Estos potenciales, tienen una magnitud entre 0.110 mV , son de naturaleza
5
local, pasivos y disminuyen en intensidad progresivamente y no se detectan
mas alla de 1 o 2 mm del sitio de origen. El cuerpo celular los suma espacial
y temporalmente y cuando se alcanza un cierto umbral, la neurona genera
una se nal, llamada potencial de accion. Esta se nal es un impulso electrico
que se propaga por el axon hasta los terminales axonicos, donde la despolar-
izacion produce la liberacion de neurotransmisores que se propagan a traves
del espacio sinaptico y afectan a la membrana postsinaptica. Esta afectacion
modica el estado electrico de la membrana y puede ser de tipo excitatorio
despolarizandola y as ayudar a la neurona receptora a que genere mas
facilmente un potencial de accion, o de tipo inhibitorio que tiene el efecto
contrario. Estos potenciales postsinapticos seran llamados potenciales excita-
torios postsinapticos (PEPS) si excitan a la neurona y potenciales inhibitorios
postsinapticos (PIPS) si la inhiben.
La se nal que genera una neurona, es decir, el potencial de accion tiene las
siguientes propiedades :
1. Se propaga activamente a lo largo del axon.
2. No disminuye su intensidad en funcion de la distancia.
3. Es de naturaleza todo o nada.
4. Es semejante en todas las neuronas. La amplitud del potencial de
accion es de unos 100 mV y dura de 0.5 a 2 milisegundos. Su velocidad
de propagacion depende del diametro del axon y de su mielinizacion.
5. La mayora de las neuronas generan un potencial de accion cuando el
estmulo aplicado es despolarizante. La magnitud del estmulo debe
ser mayor que un cierto valor crtico, llamado el umbral de disparo de
la neurona. Este umbral depende de la neurona y a un en la misma
neurona puede cambiar.
Tambien existen neuronas que generan un potencial de accion cuando
el estmulo aplicado es hiperpolarizante y de cierta duracion.
6. Si el mismo estmulo aplicado a la neurona, se mantiene durante un
cierto tiempo, el umbral de disparo de la neurona disminuye.
6
7. Una vez que se genera un potencial de accion, la neurona es incapaz,
durante cierto tiempo, de generar un nuevo potencial de accion, inde-
pendientemente de la magnitud del estmulo que se le aplique, en este
caso se dice que la neurona esta en estado refractario. Al tiempo que
dura la neurona en estado refractario se le llama perodo refractario
absoluto. Existe un intervalo de tiempo, llamado perodo refractario
relativo, durante el cual el umbral de disparo de la neurona aumenta y
con esto dicultar la generacion de nuevos potenciales de accion.
El perodo refractario absoluto de una neurona determina la frecuencia
de generacion de potenciales de accion.
8. Un potencial de accion se puede generar mediante estmulos de corriente
que varen linealmente con el tiempo, con tal que la pendiente sea mayor
que un cierto valor crtico. Si la pendiente es menor que este valor
crtico, no se genera ning un potencial de accion, sin importar que tan
grande sea la despolarizacion de la membrana. A esta propiedad de la
membrana se le llama acomodacion.
El mecanismo de propagacion del potencial de accion se puede describir
esquematicamente de la siguiente manera: el estmulo inicial en un punto
del axon (una despolarizacion de la neurona de cierta magnitud) provoca
corrientes locales que uyen de manera pasiva a traves de la membrana,
causando una variacion en el potencial de reposo en zonas cercanas al punto
estimulado.
Esta despolarizacion en las zonas cercanas genera un mecanismo en la
membrana que genera un voltaje muchas veces mayor que el inicial, el cual
a su vez produce corrientes locales que causan un cambio en el potencial en
las zonas adyacentes y as sucesivamente.
Esta claramente demostrado que el potencial de accion no se puede propa-
gar por el axon como si este fuera un cable (en forma pasiva) ya que en este
caso el potencial decrecera en forma exponencial y la rapidez de decreci-
miento estara en funcion de la resistencia de la membrana axonica y de la
resistencia a las corrientes que uyen longitudinalmente a traves del axon
7
1.4 BASES F
ON
Toda neurona contiene en su interior varios tipos de iones, entre los que
se encuentra el sodio (Na
+
), el potasio (K
+
) y el cloro (Cl
) en distintas
concentraciones, ademas de algunas otras moleculas como aminoacidos, pro-
teinas, etc. La membrana de una neurona tiene distintas permeabilidades con
respecto a cada tipo de ion. La difusion de los iones a traves de la membrana
celular se realiza a traves de zonas especiales restringidas de la membrana,
llamados poros o canales y existe selectividad de estos canales para los
distintos tipos de iones. La membrana tiene tambien mecanismos activos
para bombear algunos de los tipos de iones (principalmente el potasio y el
sodio) del interior al exterior de la membrana y recprocamente.
En el exterior de la neurona tambien se encuentran distintos tipos de
iones, principalmente sodio, potasio y cloro, en distintas concentraciones.
Para el caso de la membrana neuronal en reposo del axon gigante del
calamar, (ver Tabla 1). Los tipos de iones y las concentraciones de estos,
pueden variar, dependiendo del tipo de neurona que se considere.
Tabla 1
Lquido Potencial de
Especie Citoplasma extracelular equilibrio
52 560 60
A
(iones 385
organicos)
La distribucion de los principales iones a traves de la membrana
neuronal en reposo del axon gigante del calamar.
estan balanceados
(Fig. #3), lo cual se logra cuando las fuerzas de difusion, provocadas por las
distintas concentraciones de los iones, en el interior y exterior de la membrana
se equilibran con las fuerzas electricas, producidas por el hecho de que los
iones son partculas cargadas electricamente.
El potencial de accion se logra cuando la neurona se despolariza hasta
un nivel crtico; en ese momento tiene lugar un cambio s ubito, donde las
barreras normales que se oponen al ujo de sodio y potasio desaparecen
momentaaneamente, estableciendose un ujo local de iones, de suciente
magnitud como para invertir el potencial de membrana, que alcanza unos
50 mV (positivo en el interior) y despues se invierte de nuevo para establecer
el potencial de reposo. Pero la primera inversi on (hacia el interior positivo)
ha producido una se nal potente que se extiende y lleva la region adyacente de
la membrana a un nivel crtico, repitiendose entonces el proceso (Fig. #3).
En la siguiente seccion explicaremos mas detalladamente esto y describiremos
los diversos modelos que existen al respecto.
Una ecuacion importante en la siologa es la ecuacion de Nernst, obtenida
en 1888 por W. Nernst. Esta ecuacion relaciona el potencial de una mem-
brana permeable a un ion con las concentraciones del ion en el interior y el
exterior de la membrana. La ecuacion se aplica con la condicion de que la
corriente total ionica sea igual a cero, es decir, cuando la corriente ionica
producida por el potencial es igual a la corriente producida por la diferencia
de concentraciones en el interior y el exterior de la neurona.
Supongamos que tenemos dos compartimientos A y B, donde se tiene una
solucion que contiene un ion I, a diferentes concentraciones C
A
y C
B
y que
los compartimientos estan separados por una membrana permeable al ion I
(Fig. #4)
Figura 4
A ion I ion I B
C
A
+ C
B
V
9
Como el ion I se encuentra a diferentes concentraciones en A y B, entonces
se empezara a difundir del compartimiento de mayor concentraci on al de
menor concentracion pero como el ion lleva una carga, el compartimiento
hacia el cual se esta difundiendo empieza a aumentar su carga as aumenta su
voltaje frenando la difusion del ion. El equilibrio dinamico se lograra cuando
el voltaje en el compartimiento que recibe los iones difundidos se equilibra
con la fuerza de difusion que surge debido a las distintas concentraciones del
ion. Es decir, cuando:
V =
RT
ZF
ln
_
C
B
C
A
_
(1.1)
donde V es el voltaje entre el compartimiento A y el compartimiento B, R
es la constante de los gases ideales, T la temperatura (en grados Kelvin), Z
la valencia del ion y F la constante de Faraday (la carga de una mole de
partculas univalentes), aproximadamente 9.65 10
4
C/mol. Esta ecuacion
nos permite calcular el voltaje entre A y B en terminos de las concentraciones
del ion en los compartimientos A y B, cuando el ujo neto de iones entre los
compartimientos es cero. Este voltaje entre A y B es llamado el potencial
de equilibrio del ion. En la Tabla 1 estan los valores de los potenciales de
equilibrio de algunos iones.
En el caso que los compartimientos contengan mas de un ion, con dis-
tintas concentraciones y que la membrana contenga canales independientes
para el paso de los iones, se puede calcular el potencial de equilibrio de un
solo ion, usando (1.1), con la condicion de que la membrana tenga abierto,
unicamente, el canal de ese ion. Si todos los canales de la membrana estan
abiertos simult aneamente, entonces el voltaje dependera de las permeabili-
dades (facilidad con que un ion atraviesa la membrana (cm/seg)) relativas
de los iones y de las concentraciones de los iones. Goldman (1943) calculo el
potencial nal promedio:
V =
RT
Z
i
F
ln
_
P
+
i
[I
+
i
]
A
+
i
[I
i
]
B
P
+
i
[I
+
i
]
B
+
i
[C
i
]
A
_
(1.2)
donde P
+
i
, P
i
representan las permeabilidades de las especies ionicas positi-
vas y negativas respectivamente y [I
+
i
]
, [I
i
]
]
i
P
k
+[K
+
]
i
+ P
Na
+[Na
+
]
i
+ P
Cla
[Cl
]
e
_
(1.3)
En la ecuacion de Goldman se supone que el campo electrico que existe
a traves de la membrana vara uniformemente, por lo que tambien se supone
que los movimientos de los iones a traves de la membrana son independientes
unos de otros.
La importancia de este resultado es que nos permite hacer predicciones
cuantitativas del potencial de membrana cuando se tienen variaciones de las
concentraciones de los iones y de las permeabilidades de la membrana a los
distintos iones.
Usando la ecuacion de Nernst y con ciertos experimentos de tipo electrico
se ha logrado demostrar que la membrana de una neurona en estado de reposo
no es permeable unicamente al potasio sino que tambien es permeable al
sodio, aunque la permeabilidad del sodio es muy peque na con respecto a la
del potasio. Se considera que la permeabilidad con respecto a los iones de
sodio es aproximadamente el 1% de la correspondiente a los iones de potasio
y por ello debe de haber una bomba en la membrana que bombea iones
de sodio hacia el exterior de la membrana e iones de potasio al interior de la
misma.
Tambien se logro establecer lo que ocurre cuando una neurona genera
un potencial de accion. El potencial de accion se genera cuando se logra
una despolarizacion de la membrana de aproximadamente 15 mV y en ese
momento ocurre que la permeabilidad de la membrana al sodio aumenta, por
la apertura de canales de Na
+
(que dependen del voltaje), lo que hace que
el potencial se eleve. Esto a su vez permite que aumente la permeabilidad
de la membrana, por un nuevo aumento de los canales de sodio, lo que
hace que el potencial se eleve y as sucesivamente, hasta que el potencial casi
alcanza el potencial de equilibrio del sodio (se establece en la membrana un
11
mecanismo de retroalimentaci on positiva entre el potencial de membrana y
la permeabilidad de esta al sodio). Este potencial de equilibrio no se alcanza
ya que cuando se inicia el aumento de la permeabilidad de la membrana al
sodio, un corto tiempo despues empieza a aumentar la permeabilidad de la
membrana al potasio y una entrada de cloro a la membrana. Ademas los
canales de sodio empiezan un proceso de inexcitabilidad y tambien se tiene
un ujo pasivo de iones de potasio.
En resumen, el potencial de accion se origina cuando la estimulacion
electrica alcanza un cierto umbral. Su dinamica se encuentra determinada
por la relacion que existe entre las distintas corrientes ionicas que se estable-
cen en la membrana, tanto corrientes pasivas como activas.
En la seccion 1.6 se mostraran algunos modelos que describen este proceso
de manera cuantitativa.
Una manera equivalente de estudiar el potencial de membrana de una
neurona consiste en construir un circuito electrico que incorpore las tres
propiedades basicas que utiliza la membrana para generar se nales electricas
- los canales ionicos, los gradientes de concentraci on de los iones, la capaci-
dad de la membrana para almacenar carga electrica. Cada canal ionico se
puede representar como una resistencia (o como una conductancia que es
la inversa de la resistencia). La conductancia para un canal ionico sera en
cierta medida, equivalente a la permeabilidad de la membrana a ese ion. La
capacidad de la membrana para almacenar carga se puede representar como
una capacitancia y los gradientes de concentracion como una batera (Figs.
#5,6)
El modelo de circuito equivalente es muy importante desde el punto de
vista experimental ya que permite el uso de tecnicas electrosiologicas para
el estudio de las se nales neurales, en lugar del uso de isotopos radiactivos que
se usan para medir los cambios de permeabilidad y difusion de iones.
1.5 T
ON DEL
CEREBRO
En el proceso de obtener informacion sobre la estructura anatomica y
funcional del cerebro en sus diversos niveles neurona, poblaciones de neu-
12
ronas y todo el cerebro se han elaborado, con la ayuda de la tecnologa y
otras ciencias, un conjunto de tecnicas e instrumentos que se han ido mejo-
rando con el transcurso del tiempo y que han sido de gran utilidad para el
diagnostico clnico, para los neuroanatomistas y los neurosiologos.
Para el estudio anatomico se han usado instrumentos como el microscopio
optico, el microscopio electronico, etc. y algunos metodos de tincion selectiva
como el metodo de Golgi, Nissl, Nauta, etc. El metodo de Golgi, inventado
por Camilo Golgi alrededor de 1875, es un metodo de tincion selectiva que
tiene la propiedad de que al te nir un grupo de neuronas, solo algunas de
ellas, aproximadamente una de cada cien se ti nen por completo (dendritas,
cuerpo celular, axon) y las demas quedan intactas. Con este metodo, San-
tiago Ramon y Cajal logro establecer que el cerebro esta constituido por
celulas separadas, que las interconexiones entre ellas no eran al azar, ademas
de describir la arquitectura de una gran cantidad de estructuras del cerebro.
Con el metodo de Nissl se logra destacar los cuerpos celulares de las neuronas,
pero no sus dendritas y axones. Por mucho tiempo los neuroanatomistas us-
aron estos dos metodos de tincion para estudiar anatomicamente el cerebro.
Alrededor de 1952 W. Nauta invent o un metodo de tincion selectiva, que
actualmente lleva su nombre. Seg un D. H. Hubel, este metodo es el primer
instrumento ecaz para cartograar las conexiones entre las distintas estruc-
turas del cerebro. El metodo de Nauta aprovecha el hecho de que, cuando
se destruye una neurona, la bra nerviosa que procede de ella degenera y,
antes de desaparecer por completo, puede ser te nida de manera diferente de
sus vecinos normales.
Los avances tecnologicos y una mayor comprension del funcionamiento
de las neuronas han permitido crear tecnicas con las cuales, no solo se logra
obtener informacion mas precisa sobre las conexiones entre regiones cere-
brales, identicar neuronas, sino tambien sobre las zonas activas del cerebro.
Existen tecnicas que aprovechan el hecho de que las neuronas absorben
y sintetizan varias sustancias protenas, enzimas, etc. . Algunas de estas
sustancias son transportadas, a traves del axon, desde el soma hasta los ter-
minales axonicos (transporte anter ogrado). Tambien existe un transporte
de sustancias desde los terminales axonicos al cuerpo celular (transporte
retrogrado).
13
La autorradiografa de Cowan (1972) es una tecnica que aprovecha el
transporte axonico anter ogrado para determinar los terminales axonicos de
una neurona. Esta tecnica consiste en inyectar, en alguna estructura cere-
bral, aminoacidos marcados radiactivamente, estos penetran en el soma de
la neurona y se incorporan en las sustancias que son transportadas hasta los
terminales axonicos, donde se les puede detectar por un proceso de autorra-
diografa.
Tambien se cuenta con tecnicas que aprovechan el transporte axonico
retrogrado. Entre las mas conocidas esta la tecnica de la peroxidasa de
rabano, se inyecta en el sistema nervioso, la enzima peroxidasa de rabano,
esta es absorbida por los terminales axonicos y transportada retrogradamente
hacia el cuerpo celular, donde puede ser detectada por diversas tecnicas, y
as conocer el origen del axon.
Para mayor informacion de otras sustancias que se usan para el estudio de
las conexiones entre regiones cerebrales, otros metodos para detectar sustan-
cias (la inmunohistoqumica se basa en la deteccion de sustancias tisulares
por medio de anticuerpos), la hibridacion in situ, etc. recurrir a [51] y [107].
En este ultimo se hace una revision detallada de la organizacion neuronal y
sinaptica de la corteza cerebral.
Basandose en el hecho de que la glucosa es el combustible de las neuronas,
y estas consumen mas glucosa cuando estan activas que cuando se encuentran
en reposo, Louis Sokolo (1977) invento una tecnica que le permitio medir
el metabolismo de las neuronas.
La tecnica consiste en inyectar en el torrente sanguneo un analogo
qumico de la glucosa (la 2desoxiglucosa), que es absorbida por las neuronas,
mediante el mismo sistema que la glucosa, aunque una vez en el interior de
la neurona, ya no puede ser metabolizada. Si la 2desoxiglucosa es marcada
radiactivamente e inyectada en el torrente sanguneo, la velocidad con que
se acumula en el interior de las neuronas, nos proporciona un ndice de la
actividad metabolica de las neuronas.
Las tecnicas que hemos mencionado hasta ahora requieren en alg un mo-
mento de la destruccion del sujeto de estudio. Con el desarrollo de la tec-
nologa se crearon nuevas tecnicas menos invasivas, que permitan obtener
informacion sobre la actividad del cerebro humano en vivo, por ejemplo la to-
14
mografa axial computarizada (TAC), la tomografa por emision de positrones
(TEP) y la formacion de imagenes por resonancia magnetica (IRM), entre
otras. Las herramientas teoricas fundamentales para el analisis de los dife-
rentes tipos de tomografas estan vinculadas a la transformada de Radon y
los metodos matematicos y computacionales de reconstruccion por proyec-
ciones. Existe una vasta bibliografa de estos temas entre los que vale citar
a [53], [54] y [85].
La tomografa axial computarizada se aprovecha del hecho que los distin-
tos tejidos absorben diferentes cantidades de energa de rayos X; mientras
mas denso es el tejido, tanto mas absorbe. Por ello un haz de rayos X muy
concentrado que atraviese el cuerpo emergera del mismo a un nivel reducido
de intensidad que dependera de los tejidos y organos encontrados a su paso.
Si se dirigen a traves del cuerpo haces planos de rayos X con diferentes
angulos de inclinacion, se recogera informacion suciente para reconstruir
una imagen de la seccion del cuerpo, la cual debidamente procesada permite
reconstruir una imagen tridimensional de la intensidad de radiacion absorbida
y por ende de la estructura interna del objeto estudiado. La tomografa por
emision de positrones, permite cartograar las estructuras cerebrales activas
ya que permite la medicion de diversas actividades del cerebro, tales como
el metabolismo de la glucosa, el consumo de oxgeno, el riego sanguneo y la
interaccion con los farmacos. De todas estas variables, el ujo sanguneo ha
demostrado ser el indicador mas able de la funcion cerebral en cada mo-
mento. Con la TEP se pueden localizar cambios de actividad con precision
milimetrica.
La formacion de imagenes por resonancia magnetica (IRM) es un ins-
trumento bastante com un para diagnosticar lesiones en tejidos. Tuvo su
origen en una tecnica de laboratorio denominada resonancia magnetica nu-
clear (RMN), dise nada con el n de explorar las caractersticas qumicas de
las moleculas. La (RMN) se basa en que muchos atomos se comportan como
diminutas agujas imantadas en presencia de un campo magnetico. En es-
tas condiciones, la aplicacion de impulsos de una onda radioelectrica a una
muestra, perturba los atomos de una manera muy precisa, y estos en con-
secuencia emiten se nales de radio detectables que identican el n umero y
el estado de los atomos pertenecientes a la muestra. El ajuste del campo
magnetico y de los impulsos de onda radioelectrica proporciona informacion
15
sobre la muestra de estudio. En el caso del cerebro P. C. Lauterbur descubrio
que podan formarse imagenes por RMN mediante la deteccion de protones.
La utilidad de estas partculas, abundantes en el cuerpo humano, reside en
su gran sensibilidad a los campos magneticos que los hace comportarse como
min usculas agujas imantadas. De esta forma se obtuvieron excelentes ima-
genes anatomicas con detalle muy superior a las conseguidas mediante TAC.
El interes por aplicar la IRM a la obtencion de imagenes cerebrales se
debe a que esta tecnica es capaz de detectar una se nal inaccesible a las ex-
ploraciones mediante TEP como por ejemplo, el aumento en la concentraci on
de oxgeno que se produce en una zona donde se ha intensicado la actividad
neuronal. Otras ventajas sobre la TAC y otras tecnicas son:
1. La se nal procede directamente de cambios inducidos por causas fun-
cionales en el tejido cerebral (el cambio en la concentraci on de oxgeno
venenoso).
2. Para obtener una se nal no hay que inyectar ninguna substancia, radi-
activa o de otro tipo.
3. La IRM proporciona informacion anatomica y funcional sobre cada
sujeto, lo cual permite una identicacion estructural exacta de las zonas
activas.
4. Adecuadamente equipada, puede observar en tiempo real el ritmo de
cambio de la se nal de oxgeno inducida en el ujo sanguneo.
Sin embargo a pesar de las ventajas que proporciona la combinacion de
estas tecnicas, ninguna de ellas puede determinar la evolucion temporal del
intercambio de informacion en diferentes zonas del cerebro, lo cual es funda-
mental para estudiar como se coordinan en red diferentes zonas del cerebro
para la realizacion de una actividad dada. El obstaculo que enfrentan la
IRM y TEP para este objetivo es la gran diferencia de velocidades entre la
actividad neuronal y el ritmo de variacion de los niveles de oxigenacion en las
neuronas. Las se nales viajan de una parte a otra del cerebro en 0.01 segundos
o menos, pero los cambios de ujo sanguneo y oxigenaci on de la sangre son
mucho mas lentos y ocurren desde decimas de segundo hasta varios segun-
dos mas tarde. La IRM no puede seguir las conversaciones entre regiones
16
cerebrales. Los unicos metodos que responden con rapidez suciente son las
tecnicas de registro electrico, es decir, la electroencefalografa (EEG) que
detecta la actividad electrica del cerebro a partir de mediciones efectuadas
sobre el cuero cabelludo y la magnetoencefalografa (MEG), la cual mide el
comportamiento electromagnetico que genera la actividad electrica en el in-
terior del cerebro. El defecto de estas tecnicas es que su resolucion espacial
es menor que la de otras tecnicas y la localizacion precisa de las fuentes de
actividad cerebral sigue siendo un problema muy complejo.
En 1929 el psiquiatra aleman Hans Berg demostro que era posible medir
usando electrodos colocados en el cuero cabelludo la actividad electrica
del cerebro humano. Demostro que bajo ciertas condiciones en el sujeto de
estudio (ojos cerrados, sin estmulos exteriores, relajado) el registro de la
actividad electrica segua un patron temporal rtmico al que llamo ritmo .
Este patron temporal tena una frecuencia entre 9 y 10 c/s. Los orgenes -
siologicos del ritmo , siguen siendo motivo de controversia, algunos siologos
consideran que el ritmo se origina en el talamo y que el talamo le impone
este ritmo a la corteza, a traves de las conexiones que existen entre am-
bos, mientras que otros consideran que este ritmo es una manifestacion de la
actividad masiva de la corteza cerebral.
Posteriormente se han descubierto otros patrones temporales rtmicos que
se producen bajo ciertas condiciones corporales especiales. Por ejemplo, el
ritmo (0 a 5 Hz) se produce bajo sue no profundo, el ritmo (15 a 30 Hz)
se produce bajo intensa actividad mental y otros mas.
El EEG (medido en el cuero cabelludo o en otras regiones del cerebro)
se ha convertido en una herramienta clnica importante para el estudio de
ciertas patologas del cerebro, como la epilepsia, tumores cerebrales, etc.
Estas patologas aparecen en el EEG como patrones anormales de la actividad
electrica espontanea del cerebro. Los potenciales evocados (los potenciales
que se producen como repuesta a un estmulo) se han usado en gran medida
para el diagnostico clnico de las afecciones sensoriales (auditivos, visuales,
etc.) y en la deteccion de problemas cognitivos [14], [92], [105].
Uno de los problemas fundamentales de la electroencefalografa consiste
en correlacionar los patrones espacio-temporales obtenidos mediante el EEG
con la actividad electrica del cerebro y con conductas observables. Si se quiere
17
elaborar modelos que describan la dinamica de la actividad electrica del cere-
bro y que se correlacionen con los patrones espacio-temporales obtenidos con
el EEG; se requiere tomar en cuenta las escalas espacio-temporales en que
estan promediando las mediciones efectuadas ya que los datos electroence-
falogracos son obtenidos promediando la actividad neuronal en distintas
escalas espacio-temporales. Existen EEGs con distintas resoluciones tanto
espaciales como temporales. Por ello las variables a considerar en nuestros
modelos deben estar en congruencia con las escalas espacio-temporales usa-
das en el EEG. En el siguiente captulo detallaremos los problemas que se
presentan en esta area de estudio.
Los modelos que mas han sido estudiados son los que utilizan los princi-
pios de la teora del campo electromagnetico considerando al cerebro como
un medio continuo conductor, con una cierta geometra (que depende de las
hipotesis del modelo) y cierta conductividad variable.
En el problema directo, se considera dada la ubicacion de las fuentes
de corrientes impresas (zonas activas), su conguracion, la geometra de la
cabeza y las conductividades de los distintos comportamientos (cuero cabe-
lludo, craneo, corteza, lquido extracraneal, etc.) y se calcula la distribucion
del potencial generado en estas condiciones, comparandose los resultados
teoricos con los obtenidos con tecnicas electroencefalogracas. Mediante el
aporte de ambos datos se puede encontrar alguna informacion sobre la res-
puesta electrica de una zona activa dada.
El problema inverso consiste en obtener informacion sobre la ubicacion de
las fuentes de corrientes impresas y las conductividades en diferentes partes
del cerebro usando los datos discretos que se obtienen con el EEG. Este
problema no tiene solucion unica, es decir, existe una multitud de distribu-
ciones de fuentes de corriente en el cerebro que pueden producir la misma
distribucion de potencial en el cuero cabelludo. Al no tener solucion unica
el problema inverso, usualmente se agregan restricciones, sugeridas por la
anatoma y siologa del cerebro, a las posibles fuentes que originan la dis-
tribucion de potencial dada sobre el cuero cabelludo.
Usualmente estos modelos se restringen a la aproximaci on electrostatica
por lo que son utiles para estudiar la distribucion espacial de generadores de
los EEG pero no as sus propiedades temporales [9], [105].
18
Para estudiar la dinamica espacio-temporal de la actividad electrica se
pueden construir ecuaciones plausibles, a partir de datos anatomicos y -
siologicos que involucren variables que sean congruentes con las escalas
espacio-temporales usadas en los distintos EEG, para estudiar sus soluciones
y su relacion con las mediciones obtenidas a traves del EEG.
Finalmente, otro metodo usado consiste en elaborar una jerarqua de
escalas espacio-temporales. En cada escala espacio-temporal se deducen las
ecuaciones que gobiernan las variables que se consideran idoneas en ese nivel
y se estudia la relacion que existe entre un nivel y el nivel superior inmediato.
En la seccion siguiente desarrollaremos con mayor detalle algunos de estos
modelos.
1.6 ALGUNOS MODELOS DE ESTRUCTURAS DEL
CEREBRO
En el estudio del cerebro se han elaborado diversos modelos para los
distintos niveles del mismo. Se cuenta con modelos a nivel de neurona, grupos
de neuronas, de subestructuras del cerebro y del cerebro completo. Cada uno
de estos modelos toma en cuenta ciertos aspectos del cerebro dependiendo
de los problemas que se quieren estudiar. Es importante recalcar que los
elementos y las relaciones que se toman en cuenta para la elaboracion del
modelo estan intimamente relacionados con el nivel del cerebro que se este
considerando y con los fenomenos que se quieren explicar.
Uno de los primeros exitos importantes en la modelacion matematica en
el estudio del cerebro fue el logrado por A. Hodking y A. Huxley (H.H) en
1952 [57].
El modelo por ellos propuesto describe, por medio de un sistema de ecua-
ciones diferenciales no lineales, como vara temporalmente el potencial de
membrana en funcion de las corrientes ionicas, que uyen a traves de la mem-
brana en el axon de un calamar. El modelo toma en cuenta tres corrientes
ionicas, la de potasio (I
K
), la de sodio (I
Na
) y una corriente de ltraje (I
L
).
Considera que las corrientes de sodio y potasio uyen a traves de canales
cuya conductancia depende del potencial de membrana y del tiempo.
19
De acuerdo con las leyes de Kirchho, se tiene que:
C
m
dV
dt
= I
Na
+ I
K
+ I
L
, (1.4)
donde C
m
es la capacitancia de la membrana. Tambien se tiene:
I
Na
= g
Na
(V V
Na
) , (1.5)
I
K
= g
K
(V V
K
) , (1.6)
I
L
= g
L
(V V
L
) , (1.7)
donde g
2
V
x
2
= C
V
t
+ g
Na
m
3
h(V V
Na
)2r
+{ g
k
n
4
(V V
k
) + g
e
(V V
e
)}2r , (1.13)
m
t
=
m
(1 m)
m
m , (1.14)
h
t
=
h
(1 h)
h
h , (1.15)
n
t
=
n
(1 n)
n
n , (1.16)
donde r es el radio del axon, R es la resistencia por unidad de longitud en el
interior del axon y C la capacitancia de la membrana por unidad de longitud.
Para un resumen de los experimentos realizados por Hodking y Huxley y
de los resultados obtenidos consultar [21]. Tambien se puede consultar [40].
El modelo es importante ya que describe la evoluci on temporal del po-
tencial de membrana en funcion de las corrientes ionicas subyacentes. Sin
embargo, no toma en cuenta los eventos moleculares y qumicos subyacentes
al proceso, y por lo tanto no es posible predecir como inuyen en el proceso
los cambios en el nivel qumico y molecular. Ademas no es un modelo univer-
sal, es decir, se aplica unicamente al potencial de membrana de una neurona
del calamar gigante.
21
El modelo de H-H incorpora unicamente tres corrientes ionicas, sodio,
potasio y una corriente de ltracion, y debido a esto, el modelo consiste de un
sistema de 4 ecuaciones diferenciales ordinarias. Existen otros modelos donde
se incorporan mas corrientes ionicas, por ejemplo, Bucholtz, [16] elabora un
modelo de la L. P. neurona en el ganglio estomatogastrico del cangrejo. Este
modelo consiste de un sistema de 14 ecuaciones diferenciales ordinarias.
Otros neurosiologos elaboran modelos de neuronas que siguen esencial-
mente los principios del modelo de H-H, los cuales incorporan mas corrientes
ionicas o toman en cuenta las variaciones de las concentraciones de ciertos
iones en el interior de la membrana. En [21] se presentan otros modelos de
neuronas, tambien se pueden ver otros modelos en [99], [100].
El estudio matematico de estos modelos es bastante complejo debido al
n umero de ecuaciones diferenciales que aparecen. Por lo general son in-
tratables analticamente y a veces solo se pueden encontrar soluciones por
integracion n umerica. Se han realizado algunos estudios cualitativos de al-
gunos de estos modelos [58], [111].
Una tecnica que se usa frecuentemente es reducir, mediante alg un me-
canismo, el n umero de dimensiones del modelo manteniendo las principales
caractersticas del mismo. Por ejemplo, Fitzhugh [28], [29], propone un mo-
delo bidimensional para el modelo de H-H Abbot, Kepler [2] proponen un
metodo de reduccion mas sistematico que el de Fitzhugh, ya que reducen el
modelo de H-H a dos dimensiones, y Golomb, Guckenheimer, Gueron [39],
aplican este metodo para reducir el modelo de Buchholtz a 7 dimensiones.
Doya, Selverston [26] elaboran un metodo de reduccion de variables usando
redes neuronales articiales.
1.7 REDES NEURONALES
El estudio de la estructura y funcionamiento de una neurona es un paso
importante en el estudio del cerebro, pero el cerebro esta compuesto de
aproximadamente 10
11
neuronas densamente interconectadas, organizadas en
grupos de diversos tama nos. Las neuronas de un mismo grupo pueden inter-
actuar entre s y tambien pueden interactuar los grupos entre s y frecuente-
mente se dan estos tipos de interacci on de manera simultanea. La estructura
22
de estos grupos y sus mecanismos de interaccion no son muy conocidos. Los
estudios experimentales de estos grupos de neuronas son difciles de realizar.
Los modelos de redes neuronales (un conjunto de unidades elementales
interconectadas) son una herramienta importante para resolver muchos pro-
blemas en el area de la ingeniera de la computacion, matematicas, neuro-
siologa, etc. En cada una de estas areas se interesan en diferentes aspectos de
las redes neuronales, dependiendo de los problemas que se quieran resolver.
A los neurosiologos les interesa estudiar redes neuronales con la nalidad
de estudiar el cerebro humano. Ellos desean construir redes neuronales rea-
listas que imiten ciertas capacidades del cerebro como las sensoriales, las de
aprendizaje y las relacionadas con la memoria. Tambien desean construir re-
des que describan los mecanismos subyacentes a los patrones rtmicos que se
detectan en el cerebro. Para los ingenieros, computologos y matematicos, in-
teresa construir redes neuronales con nes computacionales. A estas ultimas
se les conoce como redes neuronales articiales y frecuentemente tienen poca
relacion con lo que ocurre en el cerebro.
Las redes neuronales se construyen siguiendo ciertas propiedades que tiene
el cerebro. Estan constituidas por un conjunto de n unidades elementales
llamadas neuronas articiales, unidades de procesamiento o nodos que estan
conectados entre s.
Las propiedades de las redes dependen del n umero de neuronas de que
consta la red y de la forma en que se interconectan.
Cada nodo se modela considerando algunas caractersticas de las neu-
ronas reales. Como mencionamos anteriormente una neurona real recibe la
informacion por las dendritas, la procesa en el cuerpo celular y bajo ciertas
condiciones emite potenciales de accion.
Si la red tiene n nodos, a cada nodo i se le asignan tres cantidades:
la entrada neta S
i
al nodo i, U
i
= U
i
(t), el estado interno del nodo en el
instante t (potencial de membrana de una neurona real), la se nal de salida
y
i
del nodo i (n umero de potenciales de accion que dispara la neurona por
unidad de tiempo) que es funcion del estado interno, es decir
y
i
= f
i
(U
i
) ,
23
donde f
i
transforma el estado interno U
i
en una se nal de salida y
i
.
La entrada S
i
al nodo i, usualmente se considera de la forma
S
i
=
n
j=1
W
ij
y
i
,
donde W
ij
es el tercer tipo de magnitud asociada a un nodo y se llama peso
sinaptico. Esta cantidad nos indica el grado de conexion entre el nodo i y el
nodo j. El peso W
ij
puede ser constante o dependiente del tiempo y puede ser
positivo o negativo seg un corresponda a una conexion excitatoria o inhibitoria
respectivamente. Se considera que el conocimiento se encuentra representado
en los pesos sinapticos y que los procesos de aprendizaje implican cambios
en los pesos sinapticos.
Los modelos de redes neuronales que se obtienen, dependen de como se
relacionan las cantidades asignadas a cada nodo.
El primer modelo que se construyo fue el modelo de Mc Culloch-Pitts [80]
que tiene las siguientes caractersticas.
1. W
ij
constantes.
2. y
i
= f
i
(U
i
) =
_
_
_
1 , si
n
i=1
W
ij
y
i
i
(la neurona dispara),
i
umbral de la neurona i
0 , en el otro caso .
En este caso se dice que el nodo o neurona articial es binario, es decir
esta activado o esta desactivado dependiendo de si la magnitud S
i
rebasa un
umbral o no.
En otros modelos lo que se construye es una ecuacion diferencial en U
i
que describe la evoluci on temporal de U
i
:
dU
i
dt
= G
i
(U
i
, S
i
), i = 1, 2, ..., n .
Por ejemplo en el modelo de Hopeld [59], [60]:
i
dU
i
dt
=
i
U
i
+ (S
i
+
i
) ,
24
S
i
=
n
j=1
W
ij
g
j
(U
j
) con g, una funcion sigmoide .
En el modelo de Grossberg [43]:
i
dU
i
dt
= U
i
+ (
i
i
U
i
)
_
_
n
j=1
W
ij
g
i
(U
j
) +
j
_
_
.
Cuando se quiere estudiar redes neuronales que aprendan, es decir que
sean capaces de modicar sus pesos sinapticos, se debe agregar un sistema
de ecuaciones diferenciales que describan la evolucion temporal de los pesos
sinapticos.
Las redes neuronales se forman con un conjunto de neuronas interconec-
tadas. Dependiendo de como se agrupan las neuronas, las redes se clasican
en:
1. Redes neuronales monocapa (1 capa). Una capa o nivel es un conjunto
de neuronas cuyas entradas provienen de la misma fuente (que puede
ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino.
2. Redes neuronales multicapa.
Con respecto a las conexiones en la red, si ninguna salida de las neuronas
es entrada de la misma capa o capas precedentes, se dice que la red es de
propagacion hacia adelante. Cuando las salidas pueden ser conectadas como
entradas de neuronas de niveles previos o del mismo nivel, incluyendose ellas
mismas ademas de conexiones con neuronas de las capas posteriores, se dice
que la red es de propagacion hacia atras.
Con respecto al aprendizaje de las redes neuronales, modicacion de los
pesos sinapticos, las redes neuronales se pueden clasicar como: redes neu-
ronales con aprendizaje supervisado y redes neuronales con aprendizaje no
supervisado. En las primeras se precisa de un agente externo (supervisor)
que controle el proceso de aprendizaje de la red, y que determina la respuesta
de la red a partir de una entrada determinada, en las segundas la propia red
controla su propio proceso de aprendizaje.
En ambos tipos de redes se requiere conocer las reglas de aprendizaje
criterios que se siguen para modicar los pesos sinapticos. El aprendizaje
25
supervisado se puede llevar a cabo de tres maneras: aprendizaje por co-
rreccion de error, por esfuerzo y estocastico. En el aprendizaje no supervisado
se puede llevar a cabo, entre otras maneras, el aprendizaje Hebbiano y el
aprendizaje competitivo y cooperativo. Para mayor informacion sobre este
tema recurrir a [11], [12], [31] y [55].
El primer modelo de red neuronal articial, llamada Perceptron, fue de-
sarrollado por Rosenblatt [98]. El Perceptron es una red neuronal con apren-
dizaje supervisado, con regla de aprendizaje de correccion de error, de propa-
gacion hacia adelante que consiste de dos capas, una de entrada - que tiene
n neuronas lineales - y la otra capa, que consta de una sola neurona, es la
capa de salida. El Perceptron es capaz de decidir cuando una entrada pre-
sentada a la red pertenece a una de las dos clases que es capaz de reconocer.
La unica neurona de salida del Perceptron realiza la suma ponderada de las
entradas, resta el umbral y pasa el resultado a una funcion de transferencia
de tipo escalon. La regla de decision es responder +1 si el patron presentado
pertenece a la clase A, o 1 si patron pertenece a la clase B; A y B son las
dos clase que el Perceptron es capaz de reconocer, previo entrenamiento. El
Perceptron funciona cuando el conjunto de nadas, cuyas componentes son
las entradas a las nneuronas de la capa de entrada, pueden ser separadas
por un hiperplano ndimensional - el correspondiente a
N
i=1
W
i
X
i
= 0;
donde W
i
es el peso correspondiente a la entrada X
i
y el umbral. En general
esto no siempre se puede hacer. Posteriormente se desarrolla el Perceptron
multicapa [11], [31].
El Adaline y el Madaline son redes neuronales desarrolladas por Widrow
y Ho [118] en 1960.
La arquitectura del Adaline y del Madaline son esencialmente la misma
que la del Perceptron. Lo que cambia es la regla de aprendizaje ya que
Adaline y Madaline usan la llamada regla delta de Widrow - Ho o regla del
mnimo error cuadrado (LMS), basada en la b usqueda de una expresion del
error entre la salida deseada y la salida lineal obtenida antes de aplicarle la
funcion de activaci on escalon (a diferencia de la salida binaria utilizada en
el caso del Perceptron). Sus principales aplicaciones estan en el campo del
procesamiento de se nales.
Tambien existen redes con aprendizaje supervisado del tipo estocastico,
26
la maquina de Boltzman [56], etc., del tipo aprendizaje con refuerzo, Linear
Reward-Penalty o L
RP
.
Con respecto a las redes con aprendizaje no supervisado se tienen: la
red de Hopeld, Learning Matrix, etc. que utilizan el aprendizaje Hebbiano
(ajuste de los pesos de las conexiones de acuerdo con la correlacion de los
valores de activaci on de las dos neuronas conectadas).
Para las que utilizan el aprendizaje competitivo - cooperativo (las neu-
ronas compiten o cooperan unas con otras con el n de llevar a cabo una
tarea) ver [5], [7].
Para mayor informacion sobre la arquitectura, reglas de aprendizaje, apli-
cacion y limitaciones de las redes que hemos mencionado y a otras mas re-
currir a: [31], [55].
Cuando se intenta construir modelos de redes neuronales para el estu-
dio del cerebro, los nodos de las redes se pueden interpretar como una sola
neurona o como un grupo de neuronas.
Matematicamente no existe ninguna distincion entre estos dos casos, pero
si se desea construir redes neuronales que describan ciertos fenomenos que
ocurren en el cerebro y que los resultados se correlacionen con mediciones
experimentales, la distincion s es importante.
Se ha detectado actividad rtmica en algunas estructuras del cerebro:
oscilaciones en el talamo, oscilaciones en el sistema bulbo olfativo, corteza,
etc. Algunos modelos de redes neuronales se elaboran tomando en cuenta
datos anatomicos y siologicos con la nalidad de describir estos fenomenos
temporales rtmicos. Por ejemplo:
Lopes da Silva [76], [77] elabora un modelo de red neuronal que intenta
explicar los orgenes del ritmo en el perro con redes neuronales creadas con
neuronas de la corteza y del talamo.
Destexhe, Contreras, Sejnowski, y Steriade [24] elaboran un modelo de red
neuronal para neuronas del n ucleo reticular talamico y obtienen resultados
teoricos de tipo oscilatorio con frecuencias de 7 a 14 Hz y otros en el rango
de 0.5 - 1 Hz dependiendo de los parametros que se consideran.
27
Freeman [33], [34], [35], elabora un modelo que describe el modo en que
la informacion sensorial puede ser procesada en un modo distribuido para
una de las formas mas simples de corteza. El modelo se elabora con base en
estudios anatomicos y siologicos sobre las interconexiones neuronales entre
el bulbo olfativo y la corteza en gatos y conejos e intenta relacionar los re-
sultados teoricos con datos electroencefalogracos obtenidos en experimentos
con estos animales.
Menon [81], estudia el fenomeno de las oscilaciones temporales en el cere-
bro, considerando que estas se deben a la interacci on de neuronas inhibitorias
y neuronas excitatorias. Elabora un modelo en el cual considera dos grupos
de neuronas, una que tiene unicamente conexiones inhibitorias y el otro grupo
que tiene unicamente conexiones excitatorias. Estudia la dinamica de estos
dos grupos de neuronas interconectados elaborando un modelo de dos ecua-
ciones integro-diferenciales acopladas.
Nu nez comenta en [89], [92] que la mayora de los modelos de redes neu-
ronales no surgen para estudiar las bases siologicas de los EEG en el cuero
cabelludo sino para estudiar algunas funciones cerebrales, como por ejemplo
la memoria de corto plazo. Tambien menciona que si se quiere explicar
por medio de redes neuronales los patrones rtmicos temporales que se mi-
den con electrodos en el cuero cabelludo (EEG), no basta que se construyan
redes (a un basados en datos anatomicos y siologicos) que produzcan solu-
ciones oscilatorias con la misma frecuencia que se obtienen en los EEG. Por
lo tanto, es necesario considerar la estructura espacial de la red para consid-
erar los potenciales correspondientes y compararlos con los que se obtienen
en los EEG, ya que la magnitud de un potencial depende de la conguracion
geometrica de sus fuentes.
Nu nez elabora un modelo de interaccion neuronal en la corteza a la cual
considera como un medio continuo, donde la columna de corteza es la unidad
fundamental. El modelo consiste en un par de ecuaciones integrales acopladas
que relacionan la actividad sinaptica excitatoria e inhibitoria en una columna
de corteza en un tiempo t con los potenciales de accion que se disparan
en las otras columnas en tiempos anteriores, tomando en cuenta las conexio-
nes que existen entre las columnas y las velocidades de propagacion de los
potenciales de accion, ver [87], [88], [89] y [92].
28
Nu nez elabora el modelo con la nalidad de estudiar las bases siologicas
de los patrones espacio temporales medidos con electrodos ubicados en el
cuero cabelludo. Considera que para el estudio de estos patrones espacio-
temporales la columna de corteza es la unidad a considerar, ya que los EEG se
obtienen con electrodos que captan la actividad electrica promedio de varios
centmetros cuadrados de corteza, ademas de la homogenidad que ofrece la
corteza a nivel de cada capa.
En el siguiente captulo analizaremos con mas detalle este modelo.
29
1.8 MODELOS DE MEDIO CONDUCTOR
En el funcionamiento del cerebro, la actividad electrica es un elemento
fundamental; la comunicaci on entre las neuronas y entre estructuras del
cerebro se realiza a traves de ella. Otro elemento fundamental en el fun-
cionamiento del cerebro es la actividad neuroqumica. Se conoce muy poco
de como interact uan ambos elementos en el funcionamiento del cerebro.
La actividad electrica del cerebro puede ser medida en muchas escalas
espacio-temporales y con diversos grados de resolucion se puede medir la
actividad electrica de una sola neurona, de grupos de neuronas, y usando
electrodos colocados en el cuero cabelludo, la del cerebro en su totalidad.
Se conocen diversos patrones espacio-temporales de la actividad electrica
en distintos niveles, y se desea estudiar las bases siologicas subyacentes a
ellos.
Se han usado diversos modelos: redes neuronales y sistemas cooperativos-
competitivos de interacci on neuronal, para describir los posibles mecanismos
que originan estos patrones espacio-temporales. Pero estos modelos, deben
ir acompa nados de otros modelos que toman en cuenta otras caractersticas
del cerebro como son las propiedades electromagneticas derivadas de la acti-
vacion de fuentes de corrientes impresas en el cerebro y por ello es necesario
estudiar como se propagan las corrientes electricas a traves de los distintos
tejidos del cerebro.
No basta con determinar que ciertas redes neuronales correspondientes a
ciertas estructuras del cerebro producen oscilaciones teoricas que coinciden
con las oscilaciones detectadas con los EEG medidos en diversas partes del
cerebro. Los potenciales dependen de la distribucion de las fuentes y de las
propiedades electricas del medio en que ellos se propagan.
En el estudio del cerebro, como medio conductor, una herramienta im-
portante es la teora del campo electromagnetico que en el nivel microscopico
nos describe la relacion entre cargas, corrientes electricas, campos electricos
y magneticos y en el nivel macroscopico debe incluir ciertas relaciones ex-
perimentales para la permitividad (para aislantes), la conductividad (para
conductores) y la permeabilidad (para materiales magneticos). Pero nueva-
mente, si se quieren elaborar modelos cuyos resultados se puedan relacionar
30
con datos experimentales, es necesario determinar en que escala espacio tem-
poral se esta trabajando.
En cualquier escala espacio temporal que se use, las mediciones elec-
troencefalogracas se obtienen como promedio de la actividad electrica de
un cierto volumen de tejido y en cierto perodo de tiempo y por tanto, las
conductividades, las permitividades y las permeabilidades magneticas de los
tejidos deben considerarse en la misma escala. Ademas las variables de nues-
tro modelo deben estar en la misma escala espacio-temporal que la de las
mediciones.
El problema que se requiere estudiar es determinar la ubicacion y
propiedades de las fuentes de corriente generadas por la actividad del cere-
bro a partir de las mediciones electricas y magneticas efectuadas en el cuero
cabelludo o en otras estructuras del cerebro. Este problema no tiene solucion
unica; en el sentido de que la misma medicion de potencial o campo magnetico
puede ser generada por diferentes distribuciones de fuentes de corriente con-
centradas en la masa cerebral.
El problema inverso no tiene solucion unica, aunque se conozca la dis-
tribucion de potencial (o campo magnetico) en todos los puntos del cuero
cabelludo. Pero la situacion real es todava peor ya que las mediciones del
potencial se obtienen unicamente en un conjunto nito de puntos del cuero
cabelludo donde estan ubicados los electrodos.
El problema es sumamente complejo ya que es necesario considerar la
geometra y propiedades electromagneticas de las distintas regiones que in-
tervienen corteza, craneo, cuero cabelludo, etc. con el objetivo de relacionar
los datos obtenidos en el cuero cabelludo con sus posibles fuentes.
A un el problema directo, es decir, dada la distribucion de fuentes de co-
rriente, la conductividad de los diversos tejidos y la permeabilidad magnetica,
determinar el campo electromagnetico en cualquier punto, ya es bastante
complejo.
Usualmente lo que se hace, en ambos problemas, es introducir simpli-
caciones con base en informacion conocida sobre el cerebro y resolver el
problema con esas simplicaciones. Estas simplicaciones dependen mucho
de la escala en que se esta trabajando.
31
La primera simplicacion importante que se introduce es el considerar
que se puede aplicar al cerebro la teora electromagnetica cuasi-estatica [92].
Es conocido que en un medio conductor con conductividad las cargas se
distribuyen muy rapidamente, es decir, la densidad de carga decrece como
e
o
t
,
donde
o
es la constante dielectrica. Para la conductividad del hueso
o
es
del orden de
1
200
y para la piel y la masa cerebral es mucho menor.
Por este motivo se tiene que
o
e
o
t
y como se conoce experimentalmente que el intervalo de tiempo en que la
densidad de corriente
J en el cerebro vara apreciablemente, es mucho mayor
que
o
, entonces en la ecuacion de continuidad
J +
t
= 0
se puede despreciar
t
y queda
J = 0 .
Ademas se considera que las corrientes que circulan en el cerebro son de
dos tipos: Ohmicas, es decir, generadas por cargas en movimiento a traves
del uido extracelular y corrientes primarias o impresas,
J
p
, que se mueven a
traves de las membranas celulares y aparecen en las zonas activas. Entonces
se tiene
J =
J
p
E ,
donde
E es el campo electrico.
Del desacoplamiento entre el campo electrico y magnetico se tiene que
rot
E = 0 y, por lo tanto,
E = u, donde u es el potencial del campo
electrostatico.
32
De la ecuacion de continuidad simplicada se obtiene que en la masa del
cerebro se cumple la ecuacion
u =
1
J
p
.
Si ademas se considera un sistema de varias capas donde la region
1
ocupada por el cerebro esta cubierta por otras regiones disjuntas
i
(i 2)
que representan el fuido intracraneal, el craneo, la piel, etc., entonces en
cada frontera de separacion entre dos regiones
i
y
i+1
, se deben satisfacer
condiciones del tipo
i
_
u
n
i
_
=
i+1
_
u
n
i
_
+
+
f
i
,
u
= u
+
,
donde
i
es la conductividad en cada
i
, n
i
es el vector unitario normal
exterior a
i
en la parte com un de las fronteras de
i
y
i+1
. El suprandice
o + indica que el valor lmite a la frontera de la cantidad indicada se toma
desde
i
o desde
i+1
respectivamente.
Mediante
f
i
se denota la componente normal de la densidad de corriente
supercial, la cual en este modelo puede estar presente unicamente en la
frontera del cerebro, es decir, en la corteza cerebral.
Si se denota por
e
la region cuya frontera exterior S
e
coincide con el
cuero cabelludo, entonces el problema unico consiste en determinar
J
p
y
f
1
a partir de las mediciones de u sobre S
e
.
Este problema esta mal planteado y por ello se necesita introducir algo-
ritmos de regularizacion en su solucion.
Una de las simplicaciones mas importantes en el estudio del problema
inverso consiste en representar
f
1
y
J
p
en forma de un n umero nito de
dipolos puntuales y, en este caso, el problema se reduce a la localizacion de
sus posiciones y momentos, es decir, a encontrar 6N parametros donde N es
el n umero de dipolos propuestos para la fuente activa [103].
33
1.9 CONCLUSIONES
Como hemos podido ver, existe un gran n umero de tecnicas y metodos
para determinar anomalas de caracter anatomico o funcional en el cerebro,
as como para el estudio de los patrones temporales ritmicos de la actividad
electrica del mismo. Sin embargo, ninguno de estos metodos puede describir
la interacci on neuronal entre diferentes regiones del cerebro ni puede ex-
plicar el origen siologico de los patrones temporales rtmicos de la actividad
electrica.
El objetivo de este trabajo es estudiar modelos que son una generalizacion
de los introducidos por Paul Nu nez en [89], [92] que, en conjunto con los
modelos de medio conductor, permitan describir la evolucion temporal de
la interacci on neuronal masiva en la corteza cerebral y tambien dar alguna
explicacion matematicamente fundamentada de los orgenes siologicos de
los patrones temporales rtmicos de la actividad electrica.
Esperamos ademas que este tipo de trabajo sirva como fundamento para
el desarrollo de software mas apropiado para el analisis clnico de los EEG.
34
Captulo 2
MODELACI
ON GLOBAL DE LA ACTIVI-
DAD SIN
ON
Para el estudio de las correlaciones existentes entre ciertos estados -
siologicos y las mediciones electroencefalogracas a nivel de cuero cabelludo
o de corteza se han elaborado diversos modelos de interacci on neuronal a
nivel de corteza-talamo. Estos modelos se pueden dividir, grosso modo, en
modelos locales, modelos globales y modelos mixtos.
En los modelos locales [33], [34], [75], [76], [77], [95], se tratan de explicar
las propiedades espacio-temporales de los EEG con base en propiedades a
nivel de neurona, redes neuronales discretas o redes neuronales distribuidas
en el rango de milmetros; las propiedades temporales de los EEG son deter-
minadas por los retrasos sinapticos como son los tiempos de respuesta y de
decrecimiento de los potenciales postsinapticos.
En los modelos globales [87], [88], [89], [90], [92], se toman como ele-
mento importante los sistemas de bras corticorticales (cuyas longitudes se
encuentran en el rango de centmetros) y el hecho de que la corteza es una
estructura cerrada. En estos modelos se considera que el EEG medido so-
bre el cuero cabelludo es fundamentalmente el resultado de la interacci on de
neuronas corticales a traves de los potenciales de accion. Se considera que
35
ciertos patrones espacio-temporales de los EEG se pueden explicar tomando
en cuenta los retrasos debido a la velocidad nita de propagacion de los po-
tenciales de accion que viajan por las bras corticorticales y por el hecho de
que la corteza es una estructura cerrada.
Nu nez considera [92] que los modelos locales pueden ser importantes en
ciertos estados siologicos del cerebro y que en otros casos, como en aquellos
que interviene un mnimo de actividad cognitiva (sue no, coma, anestesia) se
pueden explicar con los modelos globales; pero que dada la extrema com-
plejidad de los interacciones neuronales se requieren modelos que toman en
cuenta la interaccion neuronal en las diversas escalas espacio-temporales [64],
[65], [66], [67], [68].
En este captulo analizaremos el modelo global elaborado por Nu nez. Este
modelo sera el punto de partida para la elaboracion de nuestro modelo. El
modelo describe la evoluci on de la actividad sinaptica en la corteza y consiste
en un par de ecuaciones integrales que relacionan la actividad sinaptica en
cada columna de corteza en un instante de tiempo t con los potenciales de
accion que se generan en tiempos anteriores en las demas columnas de corteza,
tomando en cuenta las conexiones que existen entre las columnas de corteza
y las velocidades de propagacion de los potenciales de accion. Tambien se
pueden tomar en cuenta los retrasos sinapticos o incluir circuitos locales,
convirtiendolo en un modelo local-global mas completo.
Con el modelo global, sin tomar en cuenta los retrasos locales, se estudia
bajo que condiciones se tienen soluciones de tipo ondulatorio y se comparan
estas soluciones con los datos obtenidos a traves del EEG. Sus resultados
teoricos coinciden con los obtenidos experimentalmente para el ritmo
pero no incluye otros estados siologicos.
2.2 BASES FISIOL
ON DE
LA ACTIVIDAD SIN
APTICA EN LA CORTEZA
CEREBRAL
La corteza cerebral es un sistema muy complejo que presenta interacciones
en distintos niveles: neurona, grupos de neuronas y entre grupos de neuronas.
Aun as la corteza presenta ciertas caractersticas anatomicas y siologicas
36
que permiten elaborar modelos de interacci on neuronal cuyas variables y
parametros se pueden correlacionar con las medidas electroencefalogracas
obtenidas en el cuero cabelludo.
El modelo que presentaremos toma como unidad fundamental la columna
de corteza y pretende describir las interacciones entre las columnas de corteza,
a traves de sus interconexiones y la interaccion de la corteza con otras estruc-
turas del cerebro (principalmente el talamo); mas precisamente se describira
la evoluci on espacio-temporal de la actividad sinaptica de las columnas de
corteza.
Los elementos del modelo son:
a) h
que gene-
ran potenciales de accion en el tiempo t (adimensional)
c) R
(x
(x
, x, v)dx
a x
+ dx
(x
, x, v)dx
dv = S
(x) ,
donde S es la supercie de la corteza.
37
e) F
, x, v)g(x
, t
d(x, x
)
v
) dx
dv , (2.1)
h
(x, t) = h
o
(x, t) +
_
0
_
S
R
(x
, x, v)g(x
, t
d(x, x
)
v
) dx
dv , (2.2)
donde d(x, x
se
trasladan a traves de las bras corticorticales causando actividad sinaptica
en la columna x en un tiempo posterior que depende de la distancia que
separa x de x
(x
, x, v) = R
(d(x, x
), v) . (2.3)
Las neuronas corticales se pueden clasicar de acuerdo con la forma
del cuerpo celular, por la longitud de su axon y por la extension y dis-
tribucion espacial del arbol dendrtico. Ademas del tipo de transmisor
39
que libera, el blanco axonal, el tipo de sinapsis, etc. Para un estudio
mas detallado sobre esta tema recurrir a [82].
En primera aproximaci on, las neuronas corticales las dividiremos en
dos grandes tipos: excitatorias (neuronas piramidales y estrelladas es-
pinosas) e inhibitorias (todas las interneuronas). Las interneuronas
inhibitorias se dividen en varios tipos y se consideran que pueden tener
varias escalas espaciotemporales. Pero en nuestro caso tomaremos que
la inhibicion ocurre rapidamente.
Las piramidales tienden a ocupar vol umenes cilndricos con axones y
dendritas alineadas perpendicularmente a la supercie cortical y aproxi-
madamente de 2/3 a 3/4 de las neuronas corticales son de este tipo.
Las neuronas estrelladas ocupan volumenes mas esfericos.
El cuerpo celular de las neuronas ocupa alrededor de un 10% de la
supercie neuronal. La mayor parte del area supercial de la neurona
esta compuesta por sus ramicaciones dendrticas. El n umero de ramas
dendrticas que parten de una neurona y que intersectan a una super-
cie esferica concentrica, centrada en el cuerpo celular de la neurona,
decrece exponencialmente seg un una ley del tipo:
N umero de ramas exp( distancia radial) donde
1
(cm) es la
escala caracterstica de longitud que determina el decrecimiento en e
1
veces del n umero total de conexiones corticales a partir de una neurona.
Por ejemplo, para las celulas estrelladas y las dendritas basales de las
celulas piramidales en las cortezas visual y motora del gato y el raton
se ha comprobado experimentalmente que = 350 cm
1
.
La relacion para el decrecimiento de las ramas generadas a partir de
una dendrita es de orden polinomial en lugar de exponencial.
4. Las interconexiones entre neuronas corticales pueden ser divididas en
dos grandes grupos: las conexiones intracorticales que son de rango
corto y que tienen una longitud promedio de menos de 1 mm en hu-
manos y las conexiones corticorticales que tienen una longitud promedio
de hasta varios centmetros en humanos.
La materia blanca subcortical esta compuesta por las bras de aso-
ciacion corticorticales que estan ubicadas paralelamente a la supercie
40
cortical (Fig. #7).
Mientras que las conexiones intracorticales pueden ser tanto excitato-
rias como inhibitorias, las bras de asociacion (axones de las celulas
piramidales) que constituyen la mayor parte de la materia blanca son
solamente conexiones de tipo excitatorio. Las neuronas piramidales que
envan axones a otras regiones interiores del cerebro como el talamo,
terminan unicamente en sinapsis excitatorias.
En las neuronas piramidales existen otro tipo de neuronas intracorti-
cales que tambien terminan en sinapsis excitatorias. Sin embargo la
cantidad de sinapsis excitatorias en humanos realizadas por las bras
de asociacion (corticorticales) es mucho mayor que las que son pro-
ducidas por axones intracorticales, aproximadamente el 80% del total
de las sinapsis excitatorias son por las bras de asociacion. Aunque en
ratones es del orden del 50%.
Para mayor informacion sobre las bras de asociacion se puede consul-
tar [72].
5. La mayora de las bras de asociacion mielinadas tienen diametros entre
1 y 2 y en ellas las velocidades de los potenciales de accion son
proporcionales al diametro y uct uan entre 6 y 12 m/seg.
6. El area de la supercie total de ambas mitades del cerebro, las cuales
estan separadas por el cuerpo calloso es del orden de 1600 cm
2
. Las 2/3
partes de esta supercie estan en las suras incluyendo la sura sagital
que separa las dos mitades del cerebro. De estas dos terceras partes
la mitad del area esta contenida en las peque nas suras incluyendo la
sura sagital. Esto nos dice que el area efectiva del medio donde se
propagan las ondas es diferente de la supercie cortical.
Un problema importante en los modelos globales del EEG consiste en
saber cuando ambas mitades del cerebro deben ser consideradas por
separado. La materia blanca esta formada por bras de aferentes y
eferentes que van y vienen del interior del cerebro y la medula espinal,
junto con bras de asociacion que conectan diferentes areas corticales
41
y bras comisurales que conectan las dos mitades del cerebro funda-
mentalmente a traves del cuerpo calloso.
En humanos el n umero total de bras comisurales que van de un he-
misferio a otro del cerebro a traves del cuerpo calloso es del orden de
2 10
8
, la cual es signicativamente menor que el n umero de bras de
asociacion que entran a la corteza, que es del orden de 10
10
. Esto hace
pensar que las bras comisurales permiten una conexion muy debil en-
tre los dos hemisferios cerebrales, por lo cual parece ser que el analisis
de los fenomenos ondulatorios debidos a la actividad cerebral debe res-
tringirse a un solo hemisferio que puede identicarse con la cuarta parte
de un elipsoide de revoluci on.
El cerebro humano tiene 45cm de circunferencia (sin contar las suras)
de la supercie: del polo occipital al polo frontal, a lo largo de la lnea
media. Esta idea resulta consistente con los resultados experimentales
obtenidos en pacientes a quienes se les ha medido la frecuencia del ritmo
con los dos hemisferios acoplados y con cuerpo calloso cortado. Si
los dos hemisferios acoplados se comportaran como un sistema unico
se esperara que al efectuar el corte en el cuerpo calloso hubiera un
signicativo incremento de la frecuencia del ritmo , lo cual no ocurre.
7. Los potenciales del EEG medidos en el cuero cabelludo se deben a una
actividad sincronica de neuronas corticales que cubren un area de al
menos varios centmetros cuadrados de corteza. Por este motivo la
medicion del EEG corresponde a un nivel jerarquico macroscopico de
modelacion donde la homogeneidad e isotropa son dos consideraciones
importantes. En cambio, del hecho que las conexiones corticorticales
son inhomogeneas a niveles jerarquicos peque nos se concluye que los
modelos de actividad medida con microelectrodos requiere la inclusion
de parametros de conexion preferencial.
Como las neuronas piramidales generan grandes momentos dipolares y
estan orientadas perpendicularmente a la supercie de la corteza, ellas
son capaces de producir corrientes sincronizadas de suciente magnitud
para ser medidas sobre el cuero cabelludo. Debido a esto y a la superio-
ridad numerica de las neuronas piramidales junto con el hecho de que
42
son ellas las que producen la mayor parte de sinapsis excitatorias en la
corteza a traves de sus axones (bras corticorticales), es que son estas
neuronas las principales responsables de la medicion del EEG sobre el
cuero cabelludo.
De aqu concluimos que para una primera modelacion de la contribucion
global de la corteza al EEG se debe considerar la actividad sinaptica ex-
citatoria producida por las neuronas piramidales as como la actividad
sinaptica inhibitoria producida sobre ellas por las neuronas estrelladas.
Como mencionamos al inicio de este captulo, en esta tesis nos dedi-
caremos al estudio de modelos teoricos de la actividad global de la
corteza cerebral que dan lugar al EEG. Estos modelos tienen en cuenta
las consideraciones anatomicas que hemos descrito en los puntos 1-7
anteriores.
A diferencia de ellos, los modelos de circuitos locales deben incluir
parametros de conexion preferenciales, en lugar de la homogeneidad
que se considera en los modelos de actividad global, lo cual se pone
de maniesto en la seleccion de las funciones R
(x
, x, v) para cada
va del circuito. Si los circuitos son peque nos puede considerarse que
la velocidad de propagacion v es innita no siendo as en los circuitos
en que aparecen interacciones de largo alcance, en los cuales el tiempo
que se demora al viajar un potencial de accion de un lugar a otro del
circuito puede ser del orden de las constantes de tiempo de las neuronas
piramidales.
Por otra parte, como ya mencionamos en el punto 1, los modelos lo-
cales deben considerar los retrasos temporales debido a la transmision
sinaptica, que son mas peque nos que los retrasos debidos a la veloci-
dad nita de propagacion de los potenciales de accion a traves de los
axones, y por ello no se consideran en los modelos globales.
43
2.3 DESCRIPCI
ON Y SIMPLIFICACIONES EN EL
MODELO GLOBAL DE ACTIVIDAD SIN
APTICA EN
UNA BANDA DE CORTEZA.
Para evitar repeticiones innecesarias, en este captulo el subndice + siem-
pre se referira a las sinapsis de tipo excitatorio y el subndice a las de tipo
inhibitorio
Aplicaremos el modelo general (2.1), (2.2) al estudio de la actividad del
EEG producida por una banda innitamente delgada de la corteza que por
conveniencia, supondremos innitamente larga.
Para el analisis cualitativo obviaremos la geometra de la corteza y supon-
dremos que la banda coincide con una recta.
En este caso, que llamaremos el caso unidimensional, los elementos del
modelo son los mismos, solo cambian las unidades con que se trabajara. As,
h
(x
y por
unidad de velocidad (seg/cm
4
). Es decir, R
(x
, x, v)dx
dv representara el
n umero de sinapsis, por cm
2
en la columna x en el tiempo t producidas por
las neuronas que estan ubicadas desde la columna x
hasta la columna x
+dx
y por cuyos axones, los potenciales de accion viajan con velocidad entre v
y v + dv, h
0
.
Introduciremos algunas hipotesis adicionales que nos permitiran obtener
una expresion para estas funciones que al menos cualitativamente reune las
caractersticas principales de este sistema de conexiones.
44
Hipotesis 1
Comenzaremos suponiendo que cada columna esta constituida por una
cantidad nita N (que no depende de la columna) de sistemas de bras que
se superponen.
En primera aproximacion se podra considerar que N = 6 corresponde a
la distribucion de las neuronas en las 6 capas en que usualmente se divide la
corteza.
Hipotesis 2
Como las sinapsis inhibitorias se producen solo a nivel local, considera-
remos que la densidad de actividad sinaptica inhibitoria en una columna de
corteza x en un tiempo t se produce por los potenciales de accion que se ge-
neran en las columnas cercanas a la columna x en tiempos anteriores, es
decir, las columnas ubicadas fuera de una vecindad de la columna de corteza
x no contribuyen a la actividad sinaptica inhibitoria en la columna x.
Es pertinente mencionar que Nu nez enfoca esta cuestion de manera dife-
rente: considera que la velocidad de propagacion de los potenciales de accion
que viajan por las bras que tienen conexion sinaptica de tipo inhibitorio
es innita. Esta hipotesis la justica por el hecho de que la distancia que
recorren los potenciales de accion por estas bras es muy peque na. Nosotros
consideramos que esta hipotesis no reeja que las sinapsis inhibitorias se pro-
ducen solo a nivel local, lo que reeja es que el efecto de los potenciales
de accion que viajan por las bras que tienen conexion sinaptica de tipo
inhibitorio es sentida instantaneamente en las columnas donde se tienen
estas sinapsis inhibitorias. En realidad, para tener en cuenta el hecho de
que las sinapsis inhibitorias se producen solo a nivel local, debemos con-
siderar que los potenciales de accion que viajan por las bras que tienen
conexion sinaptica de tipo inhibitorio, recorren esas distancias en tiempos
mas peque nos que los usados por los potenciales de accion que viajan por
las bras de largo alcance. Mas adelante estudiaremos un modelo que tome
en cuenta esta hipotesis.
Desde el punto de vista matematico, nuestra hipotesis (el suponer que
la actividad sinaptica inhibitoria en una columna de corteza es afectada
45
unicamente por los potenciales de accion que se generan en columnas cer-
canas) nos conducira a estudiar, en el caso lmite, un proceso global de
propagacion de ondas de actividad sinaptica inhibitoria modulada por un
proceso local de propagacion de ondas de actividad sinaptica inhibitoria;
mientras que en el caso de Nu nez, lo que se estudia es un proceso global
de propagacion de ondas de actividad sinaptica excitatoria acoplada con un
proceso estacionario de actividad sinaptica inhibitoria.
De esta forma deniremos, para cada n = 1, ..., N:
F
n
(x
(x
, x, v) =
N
n=1
R
n
(x
, x, v) . (2.4)
R
n
(x
, x, v) (seg/cm
2
) representa la densidad de conexiones sinapticas en
la columna x por unidad de longitud en x
(x
, x, v)dx
dv representara
el n umero de sinapsis por cm
2
en la columna x producidas por las neuronas
que estan ubicadas desde la columna x
hasta la columna x
+ dx
y cuyos
potenciales de accion viajan por el n-esimo sistema de bras con velocidad
entre v y v + dv.
Supondremos que R
n
se representa en la forma
R
n
(x
, x, v) = r
n
(x
, x)F
n
(v) , (2.5)
donde r
n
(x
, x) (1/cm
3
) sera la densidad de conexiones sinapticas en la
columna x, asociadas al n-esimo sistema de bras, por unidad de longitud en
x
, as r
n
(x
, x)dx
hasta la
columna x
+ dx
(x
(x
, x) = t
n
(x
, x)S
n
(x) , (2.6)
donde t
n
(x
(x) representa
la densidad de sinapsis (1/cm
2
) en la columna x, producida por neuronas
cuyos axones se encuentran en el n-esimo sistema de bras. De (2.6) se tiene
que R
n
(x
, x, v) = t
n
(x
, x)S
n
(x)F
n
(v) . (2.7)
Ahora, haremos la siguiente suposicion
Hipotesis 3
La densidad de bras representadas por la funcion t
n
y que conectan
neuronas de la columna x
(x
, x) = t
n
(x, x
) . (2.8)
Ya hemos comentado que la funcion t
n
(x
, x) decrece exponencialmente
con la distancia entre x
(x
y x en la forma:
t
n
(x
, x) =
n
2
e
|x
x|
, (2.9)
donde (
n
)
1
(cm) es la escala longitudinal que determina el decrecimiento
de conexiones entre dos puntos de la corteza.
47
De (2.4) a (2.9) obtenemos
R
(x
, x, v) =
1
2
N
n=1
S
n
(x)
n
F
n
(v)e
|x
x|
. (2.10)
Hipotesis 5
En primera aproximaci on supondremos que cada sistema de bras esta
caracterizado por una velocidad v
n
(v) = (v v
n
) . (2.11)
Finalmente obtenemos
R
(x
, x, v) =
1
2
N
n=1
S
n
(x)
n
(v v
n
)e
|x
x|
. (2.12)
Pasemos ahora a imponer las restricciones que exigiremos a la funcion
g(x
, t).
Hipotesis 6
Los potenciales de accion que se generan en la columna x
en el instante
t dependen de la densidad de actividad sinaptica - potenciales postsinapti-
cos - y de la intensidad de la actividad neuroqumica (concentraciones de
neurotransmisores) que se realice en dicha columna en ese instante.
En este trabajo solo consideraremos la dependencia de g con respecto a
h
+
y h
, es decir
g(x
, t) = G(h
+
(x
, t), h
(x
, t)) , (2.13)
donde la funcion G es suave y tiene un comportamiento sigmoidal cuya forma
exacta es muy dcil de predecir aunque esto no es importante para el analisis
cualitativo que llevaremos a cabo posteriormente.
48
Es decir, la funcion G(h
+
, h
para cada h
+
jo.
Ademas existen curvas de nivel
(h
+
, h
) = , (h
+
, h
) = , (2.14)
tales que
G(h
+
, h
) =
_
_
0 , si (h
+
, h
) < ,
0 < G < 1 , si < (h
+
, h
) < ,
1 , si (h
+
, h
) > .
(2.15)
Para cada h
jo (respectivamente h
+
jo) las funciones G(, h
) (resp.
G(h
+
, )) deben tener un comportamiento sigmoidal usual.
Mas adelante propondremos una expresion explcita para las curvas de
nivel (2.14).
Las relaciones sigmoidales son muy frecuentes en los modelos del sistema
nervioso. Por ejemplo, tambien existe una relacion de este tipo entre las
concentraciones de neurotransmisores y las frecuencias de disparo de las neu-
ronas o tambien la frecuencia de actividad sinaptica.
Todas las hipotesis anteriores nos conducen a una simplicacion del mo-
delo determinado por las ecuaciones (2.1) y (2.2)
h
+
(x, t) = h
o
+
(x, t)
+
1
2
N
n=1
S
n
+
(x)
n
+
_
n
+
|x
x|
G(h
+
(x
, t
|x
x|
v
n
), h
(x
, t
|x
x|
v
n
))dx
,
(2.16)
h
(x, t) = h
o
(x, t)
+
1
2
N
n=1
S
n
(x)
n
_
x+
x
e
|x
x|
G(h
+
(x
, t
|xx
|
v
n
), h
(x
, t
|x
x|
v
n
))dx
,
(2.17)
49
donde le parametro > 0 corresponde al caracter local de la actividad inhi-
bitoria.
Sustituyendo (2.13) en (2.16) y (2.17) obtenemos
h
+
(x, t) = h
o
+
(x, t)
+
1
2
N
n=1
S
n
+
(x)
n
+
_
n
+
|x
x|
g(x
, t
|x
x|
v
n
+
)dx
,
(2.18)
h
(x, t) = h
o
(x, t)
+
1
2
N
n=1
S
n
(x)
n
_
x+
x
e
|x
x|
g(x
, t
|xx
|
v
n
)dx
.
(2.19)
En el sistema (2.18), (2.19), existen un conjunto de simplicaciones no
mencionadas explcitamente con anterioridad. Consideramos que es impor-
tante explicar estas simplicaciones, ya que ademas de provocarnos algunas
confusiones, el considerarlas nos permitira la construccion de un modelo mas
detallado, el cual tambien consistira de un sistema de ecuaciones integrales.
Este sistema se podra transformar en un sistema de ecuaciones diferenciales
parciales de tipo hiperbolico en donde podremos analizar con mayor detalle
las distintas fuerzas que act uan en el medio cortical. Es pertinente men-
cionar que al intentar transformar el sistema (2.18), (2.19), en un sistema de
ecuaciones diferenciales hiperbolicas nos surgieron algunas complicaciones
que no permitieron dicha transformacion.
Algunas de las simplicaciones introducidas en el sistema (2.18), (2.19) y
no mencionadas por Nu nez son:
No distingue por capas la densidad de actividad sinaptica ni la generacion
de los potenciales de accion; este hecho nos obliga a considerar que el efecto
producido en la actividad sinaptica en una columna x en un instante t, pro-
ducido por los potenciales de accion que se generan en tiempos anteriores en
las demas columnas, se distribuye de manera uniforme sobre cada capa de
la columna x (en cada capa el efecto total se dividira por N, donde N es
el n umero de capas). A nivel de columna tampoco distingue la contribuci on
de la actividad sinaptica de cada capa en la columna x a la generacion de
50
los potenciales de accion en esa columna. Otro problema de estos modelos
es que tampoco distinguen la actividad sinaptica producida por neuronas de
diferente clase.
En la seccion siguiente presentaremos otros modelos que subsanan algunas
de estas simplicaciones.
2.4 ALGUNOS MODELOS ALTERNATIVOS AL MODELO
DE NU
NEZ
En esta seccion analizaremos algunos modelos alternativos al modelo de
Nu nez. Estos modelos subsanan algunas de las simplicaciones mencionadas
en la seccion anterior. Tambien analizaremos brevemente la relacion de estos
modelos con el modelo de Nu nez y las relaciones que tienen entre s.
1. El modelo mas general de capas sera considerar todas las interacciones
que se pueden establecer entre todas las capas de cada par de columnas,
as obtendramos el sistema de 2N
2
ecuaciones integrales siguiente para
un modelo de N capas.
h
ij
(x, t) = h
0j
(x, t)
+
_
0
_
R
ij
(x
, x, v)g
ij
(x
, t
|xx
|
v
ij
)dx
dv ,
(2.20)
donde:
h
ij
(x
(x, t) =
N
i=1
N
j=1
R
ij
(x, t) , (2.21)
g
ij
(x, t) =
ij
(x)g(x, t) , (2.22)
h
(x, t) =
N
i=1
N
j=1
h
ij
(x, t) , (2.23)
donde
ij
(x) es un coeciente entre 0 y 1 que indica la parte de g(x, t)
que se disparan en la capa i-esima de la columna x y que llegan a la
capa j-esima de las otras columnas.
2. Otra alternativa sera considerar
h
j
(x, t) = h
0j
(x, t)
+
1
N
_
0
_
R
j
(x
, x, v)
N
i=1
ij
g
i
(x
, t
|x
x|
v
i
)dx
dv ,
(2.24)
donde:
52
h
j
(x
ij
Los pesos que corresponden a la contribuci on de la capa i-
esima de la columna x
ij
=
ij
(x, x
(x
,t)
N
). La ventaja
que se tiene en este modelo es que g
j
(x
, t) depende unicamente de
h
j
+
(x
, t) y h
j
(x
(x, t) =
N
i=1
i
(x)h
i
(x, t) , (2.25)
donde
i
(x) son ciertos pesos positivos tales que
N
i=1
i
(x) = 1.
3. Tambien se puede considerar el siguiente sistema
53
h
j
(x, t) = h
0
(x, t)
+
_
0
_
R
j
(x
, x, v)g
j
(x
, t
|xx
|
v
)dx
dv ,
(2.26)
donde
h
j
que
generan potenciales de accion en el tiempo t y que viajan por las
bras del j-esimo sistema.
h
0
(x
h
1
(x, t), . . . ,
h
N
, t
|x x
|
v
ij
_
=
ij
g
i
_
x
, t
|x x
|
v
i
_
, (2.27)
i.e. el efecto de la i-esima capa de la columna x sobre la j-esima capa de las
columnas afectadas es independiente de la capa que afecta y se distribuye de
manera uniforme sobre cada capa. Tambien se cumple que
1
N
R
i
(x
, x, v) =
N
j=1
R
ij
(x
, x, v) (2.28)
y por ultimo
h
i
(x, t) =
N
j=1
h
ij
(x, t) . (2.29)
En el modelo 3 se tiene obviamente que
h
(x, t) =
N
i=1
h
i
(x, t) , (2.30)
donde h
+
(x, t) es la densidad total de actividad sinaptica que aparece en
el modelo de Nu nez. Notese, ademas que g
j
(x
, t) = g
j
(x
, t), pero g
j
solo
depende de h
j
+
y h
se tiene que g
j
;
depende de
h
1
, . . . ,
h
N
) =
G
j
_
N
i=1
h
i
+
, h
i=1
h
i
_
(2.31)
55
y como el modelo de Nu nez se relaciona con el modelo 2 a traves de
h
(x, t) =
N
j=1
h
j
(x, t) , (2.32)
g
j
(x, t) =
g(x, t)
N
. (2.33)
Entonces tambien el modelo (2.18) (2.19) se relaciona con el modelo 1.
El modelo que eligiremos para estudiar sera el modelo 3 ya que es un poco
mas detallado que el de Nu nez y resulta un modelo con menos ecuaciones y
parametros que los otros dos modelos restantes.
En la siguiente seccion desarrollaremos el modelo 3.
2.5 DESARROLLO Y ESTUDIO DE UN MODELO DE LA
ACTIVIDAD SIN
APTICA DE LA CORTEZA
CEREBRAL
En esta seccion desarrollaremos el modelo 3, que como mencionamos en
la seccion anterior es un poco mas preciso que el del sistema (2.18), (2.19),
ademas este sistema se puede transformar en un sistema de ecuaciones dife-
renciales parciales. El modelo tiene tambien una conexion muy clara en el
sistema (2.18), (2.19). En este modelo distinguiremos la contribuci on de cada
capa de cada columna a la actividad sinaptica de una columna de corteza
dada en un instante de tiempo y lo que estudiaremos es la evoluci on espacio-
temporal de esa actividad sinaptica tomando en cuenta la distribucion de
conexiones sinapticas, las velocidades de propagacion de los potenciales de
accion de las neuronas de la capa correspondiente. Para ser mas precisos
introduciremos los elementos de que consiste el modelo.
Sean:
h
j
que generan
potenciales de accion en el tiempo t y que viajan por las bras del
j-esimo sistema.
h
0
(x
y por unidad de
velocidad.
La relacion entre
h
j
(x, t), g
j
(x, t) y h
(x, t) =
N
j=1
h
j
(x, t) . (2.34)
La misma idea que se uso para obtener la ecuacion (2.18) se puede aplicar
para obtener un sistema de ecuaciones integrales para
h
j
h
j
+
(x, t) =
h
0
+
(x, t)
+
1
2
j
+
S
j
+
(x)
_
j
+
|xx
|
g
j
(x
, t
|x
x|
v
j
+
)dx
.
(2.35)
Para
h
j
(x, t) se tiene
h
j
(x, t) =
h
0
(x, t) +
1
2
S
j
(x)
j
_
x+
x
e
|xx
|
g
j
(x
, t
|x x
|
v
j
)dx
. (2.36)
57
Ahora, sabemos que los potenciales de accion que se generan en cada capa
de cada columna ( g
j
(x, t)) dependen de la actividad sinaptica que existe en
esa columna (no depende unicamente de la actividad sinaptica en esa capa
por la forma en que se denio
h
j
h
j
i=1
h
i
+
(x, t),
N
i=1
h
i
(x, t) jo debemos
tener que
G
j
(
h
1
+
, ...,
h
k1
+
,
h
k
+
, . . . , h
N
+
,
h
1
, . . . ,
h
N
h
N
+
jo debemos tener que
G
j
(
h
1
+
, . . . ,
h
N
+
, ) es una funcion decreciente de tipo sigmoide.
Ademas existen curvas de nivel
j
(
h
1
+
, ...,
h
j
+
, . . . , h
N
+
, h
) =
j
y
j
(
h
1
+
, ...,
h
j
+
, . . . , h
N
+
, h
) =
j
, (2.38)
tales que
G
j
(
h
1
+
,
h
j
+
. . .
h
N
+
, h
) =
_
_
0 , si
j
(
h
1
+
,
h
j
+
. . .
h
N
+
, h
) <
j
,
0 <
G
j
< 1 , si
j
<
j
(
h
1
+
,
h
j
+
. . .
h
N
+
, h
) <
j
,
1 , si
j
(
h
1
+
,
h
j
+
. . .
h
N
+
, h
) >
j
.
(2.39)
Mas adelante propondremos una expresion explcita para las curvas de nivel
(2.38).
Con estas condiciones el sistema (2.35), (2.36) se transforma en
58
h
j
+
(x, t) =
h
0
+
(x, t)
+
1
2
j
+
S
j
+
(x)
_
j
+
|x
x|
G
j
(
N
i=1
h
i
+
(x
, t
|x
x|
v
j
+
),
N
i=1
h
i
(x
, t
|x
x|
v
i
+
)dx
,
(2.40)
h
j
(x, t) =
h
0
(x, t)
+
1
2
S
j
(x)
_
x+
x
e
|x
x|
G
j
(
N
i=1
h
i
+
(x
, t
|x
x|
v
j
),
N
i=1
h
i
(x
, t
|x
x|
v
i
)dx
) .
(2.41)
Como ya hemos mencionado anteriormente consideramos mas adecuado
para el analisis del modelo, transformar el sistema (2.35), (2.36) en un sistema
de ecuaciones diferenciales parciales para
h
j
+
(x, t),
h
j
h
j
x
,
2
h
j
x
2
,
h
j
t
,
2
h
j
t
2
, no escribiremos estas derivadas ya que
ademas de constar de muchos terminos, no son necesarias para los siguientes
desarrollos. Escribiremos solamente el sistema de ecuaciones diferenciales
parciales resultante, tanto para
h
j
+
como para
h
j
.
Para
h
j
+
se obtiene
2
h
j
+
t
2
+ 2
j
+
v
j
+
h
j
+
t
+ (
j
+
v
j
+
)
2
h
j
+
=
(v
j
+
)
2
_
2
h
j
+
x
2
2(S
j
+
)
(x)
S
j
+
(x)
h
j
+
x
+
_
2((S
j
+
)
(x))
2
S
j
+
(x)(S
j
+
)
(x)
(S
j
+
)
2
(x)
_
h
j
+
_
+
j
+
v
j
+
S
j
+
(x)
_
j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
+
(x, t) .
(2.42)
Para
h
j
se obtiene
2
h
j
t
2
+ 2
j
v
j
h
j
t
+ (
j
v
j
)
2
h
j
=
(v
j
)
2
_
2
h
j
x
2
2(S
j
(x)
S
j
(x)
h
j
x
+
_
2((S
j
(x))
2
S
j
(x)(S
j
(x)
(S
j
)
2
(x)
_
h
j
_
+
j
v
j
S
j
(x)
_
j
+
v
j
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
(x, t) + F
j
(x, t, ) ,
(2.43)
donde
F
j
+
(x, t) =
_
2
h
0
+
t
2
+ 2
j
+
v
j
+
h
0
+
t
+ (
j
+
v
j
+
)
2
h
0
+
_
(v
j
+
)
2
_
2
h
0
+
x
2
2(S
j
+
)
(x)
S
j
+
(x)
h
0
+
x
+
_
2((S
j
+
)
(x))
2
S
j
+
(x)(S
j
+
)
(x)
(S
j
+
)
2
(x)
_
h
0
+
_
,
(2.44)
60
F
j
(x, t) =
_
2
h
0
t
2
+ 2
j
v
j
h
0
t
+ (
j
v
j
)
2
h
0
_
(v
j
)
2
_
2
h
0
x
2
2(S
j
(x)
S
j
(x)
h
0
x
+
_
2((S
j
(x))
2
S
j
(x)(S
j
(x)
(S
j
)
2
(x)
_
h
0
_
,
(2.45)
F
j
(x, t, ) =
1
2
v
j
S
j
(x)
_
v
j
g
j
(x , t
v
j
)
+ e
g
j
t
(x , t
v
j
) v
j
g
j
x
(x , t
v
j
)
+
j
v
j
g
j
(x + , t
v
j
)
+ e
g
j
t
(x + , t
v
j
) + v
j
g
j
x
(x + , t
v
j
)
_
.
(2.46)
Con la nalidad de presentar concisamente y mas adecuadamente para
nuestros calculos el sistema (2.42), (2.43), deniremos 4N operadores diferen-
ciales parciales, actuando sobre las funciones de dos variables con derivadas
parciales hasta de segundo orden continuas. Denotaremos estos operadores
con los smbolos L
i,j
[u] =
2
u
t
2
+ 2
j
v
j
u
t
+ (
)
2
u, (2.47)
L
2,j
[u] = (v
j
)
2
_
2
u
x
2
2(S
j
(x)
S
j
(x)
u
x
+
_
2((S
j
(x))
2
S
j
(x)(S
j
(x)
(S
j
)
2
(x)
_
u
_
,
(2.48)
donde u = u(x, t) es una funcion con derivadas parciales hasta de segundo
orden continuas.
61
Con esta nueva notacion, el sistema (2.42), (2.43) se convierte en el sis-
tema
L
1,j
+
[
h
j
+
] = L
2,j
+
[
h
j
+
]
+
j
+
v
j
+
S
j
+
(x)
_
j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
+
(x, t) ,
(2.49)
L
1,j
h
j
] = L
2,j
h
j
]
+
j
v
j
S
j
(x)
_
v
j
g
j
(x, t) +
g
j
t
(x, t)
_
+ F
j
(x, t) + F(x, t, ) .
(2.50)
Para reducir el sistema a un sistema equivalente mas sencillo de estudiar
haremos uso de los siguientes resultados los cuales son muy faciles de probar
Lema 1 Sean L
i,j
L
j
[u] =
2
u
t
2
+ 2
j
v
j
u
t
+ (
j
v
j
)
2
u v
j
2
u
x
2
. (2.51)
Entonces
L
j
[ u
j
] =
1
S
j
(x)
_
L
1,j
[u
j
] L
2,j
[u
j
]
_
,
(2.52)
donde
u
j
(x, t) =
u
j
(x, t)
S
j
(x)
.
Lema 2 Sea
L
j
j
+
v
j
+
t
L
j
+
[u
j
+
] =
2,j
+
[ u
j
+
] , (2.53)
e
v
j
L
j
[u
j
] =
2,j
[ u
j
] , (2.54)
62
donde
u
j
(x, t) = e
v
j
t
u
j
(x, t)
y
2,j
+
[u] =
2
u
t
2
(v
j
+
)
2
2
u
x
2
, (2.55)
2,j
[u] =
2
u
t
2
(v
j
)
2
2
u
x
2
. (2.56)
Aplicando el Lema 1 al sistema (2.49), (2.50) ese sistema es equivalente
al sistema
L
j
+
[H
j
+
] =
1
S
j
+
(x)
F
j
+
(x, t) +
j
+
v
j
+
_
j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
_
, (2.57)
L
j
[H
j
] =
1
S
j
(x)
F
j
(x, t)+
j
v
j
v
j
g
j
(x, t) +
g
j
t
(x, t)
_
+F
j
(x, t, )
1
S
j
(x)
,
(2.58)
donde
H
j
+
(x, t) =
h
j
(x, t)
S
j
(x)
y aplicando el Lema 2 al sistema (2.57), (2.58), este sistema es equivalente a
2,j
+
[
H
j
+
] = e
j
+
v
j
+
t
_
F
j
+
(x, t)
S
j
+
(x)
+
j
+
v
j
+
_
j
+
v
j
+
g
j
(x, t) +
g
j
t
(x, t)
__
, (2.59)
2,j
[
H
j
] = e
v
j
t
_
F
j
(x, t)
S
j
(x)
+
j
v
j
v
j
g
j
(x, t) +
g
j
t
(x, t)
_
+
F
j
(x, t, )
S
j
(x)
_
,
(2.60)
63
donde
H
j
(x, t) = e
v
j
t
H
j
(x, t) .
El sistema (2.57), (2.58) es un sistema de 4N ecuaciones diferenciales par-
ciales no lineales acopladas (recordemos que g
j
(x, t) =
G
j
(
N
i=1
h
i
+
,
N
i=1
h
i
),
donde lo unico que le hemos pedido hasta ahora a
G
j
es que sea una funcion
sigmoide de cada una de las variables
h
i
L
+
[H
+
] =
1
S
+
(x)
F
+
(x, t) +
+
v
+
_
+
v
+
g(x, t) +
g
t
(x, t)
_
, (2.61)
[H
] =
1
S
(x)
F
(x, t) +
g(x, t) +
g
t
(x, t)
_
+F(x, t, )
1
S
(x)
.
(2.62)
Es decir, tenemos dos ecuaciones diferenciales parciales con la ecuacion
(2.62) dependiendo de un parametro peque no > 0, la funcion g depende
unicamente de
h
) . (2.63)
En la siguiente seccion estudiaremos el sistema (2.61), (2.62) usando
tecnicas de parametro peque no, es decir, estudiaremos primeramente el sis-
tema degenerado, el sistema (2.61), (2.62) con = 0 , para despues, con
base en este estudio, obtener informacion sobre el sistema no degenerado.
Ademas introduciremos una expresion para
G, que dependera de una sola
variable, la cual es una combinaci on lineal de
h
+
, y
h
ON DE ACTIVACI
ON PARA LA CORTEZA
CEREBRAL
Sabemos que g(x, t) depende de una manera muy compleja de la actividad
sinaptica excitatoria
h
+
, y de la actividad sinaptica inhibitoria
h
, i.e. g(x, t)
es igual a
G(
h
+
,
) debe ser
una funcion sigmoide creciente de
h
+
, para cada
h
para cada
h
+
jo. Este planteamiento
es sumamente general y difcil de estudiar, as que estudiaremos un caso
particular de la dependencia de g con respecto a
h
+
y
h
. El caso que
estudiaremos esta basado en lo siguiente:
1. Si V
(x, t) V
0
, donde V
0
es un cierto umbral
promediado de disparo de la columna x, en caso contrario no habra
activaci on.
3. Si V
+
H
+
(x, t) V
(x, t) variable de
activacion de la columna x.
65
La dinamica espacio-temporal de u(x, t) nos permitira estudiar las zonas
de la corteza que estan activas en un tiempo determinado. Para cada t, las
zonas activas de la corteza estaran caracterizadas por el conjunto
E(t) = {x en la corteza|u(x, t) V
0
} .
Para obtener la ecuacion diferencial parcial que determina la dinamica
de la variable de activacion u(x, t) multiplicamos la ecuacion
L
+
[H
+
] =
1
S
+
(x)
F
+
(x, t) +
+
v
+
[
+
v
+
g(x, t) +
g
t
(x, t)] por V
+
y le restamos V
L
+
[H
]
en ambos lados de la ecuacion, as se obtiene
L
+
[u] = V
+
+
v
+
_
+
v
+
g(x, t) +
g
t
(x, t)
_
+V
+
F
+
(x, t)
S
+
(x)
V
L
+
[H
] . (2.65)
Ademas tenemos la ecuacion para las inhibiciones
[H
] =
g(x, t) +
g
t
(x, t)
_
+
F
(x, t)
S
(x)
+
F(x, t, )
S
(x)
. (2.66)
Como mencionamos en la seccion anterior, primeramente estudiaremos el
caso degenerado ( = 0) del sistema (2.65), (2.66)
L
+
[u] = V
+
+
v
+
_
+
v
+
g(x, t) +
g
t
(x, t)
_
+V
+
F
+
(x, t)
S
+
(x)
V
L
+
[H
] . (2.67)
Ademas tenemos la ecuacion para las inhibiciones
[H
] =
F
(x, t)
S
(x)
. (2.68)
Usando el lema 2, se puede reducir el sistema (2.67), (2.68) al estudio del
sistema equivalente
L
+
[u] = V
+
+
v
+
_
+
v
+
g(u) +
g
u
(u)
u
t
_
+V
+
F
+
(x, t)
S
+
(x)
V
L
+
[H
] , (2.69)
66
(
H
) = e
t
F
(x, t)
S
(x)
, (2.70)
donde
H(x, t) = e
t
H
(x, t) .
Utilizando la denicion de
L,
2
y calculando
L
+
[e
t
H
2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+
2
u
x
2
= V
+
+
v
+
_
+
v
+
g(u) + g
(u)
u
t
_
V
t
_
(1
v
2
+
v
2
2
H
t
2
+ 2(
+
v
+
t
+ (
+
v
+
)
2
H
_
+
V
+
S
+
(x)
F
+
(x, t) +
1
v
2
(x,t)
S
(x)
e
t
,
(2.71)
2
H
t
2
= v
2
2
H
x
2
+
e
t
S
(x)
F
(x, t) . (2.72)
Notese que la ecuacion (2.72) es independiente de g, as que este sistema
se puede interpretar como un proceso global de propagacion de ondas de la
variable de activaci on, modulado por un proceso de propagacion de ondas de
las inhibiciones.
67
2.8 CONSTRUCCI
ON DE UN MODELO
COMPARTIMENTADO DE ACTIVACI
ON DE LA
CORTEZA CEREBRAL.
En el modelo que hemos analizado en las secciones anteriores con las
diversas formas propuestas para la distribucion de conexiones se eliminan
los efectos producidos en cada columna por columnas lejanas a ella. La eli-
minacion de los efectos lejanos, se debe a la eleccion de una distribucion
de conexiones que decrece exponencialmente con las distancias entre colum-
nas con la misma escala de decrecimiento, en todas las direcciones sobre la
corteza. Una manera de tomar en cuenta estos efectos lejanos, es considerar
a la corteza cerebral dividida en n compartimentos disjuntos interconectados,
considerando la distribucion de conexiones para cada par de compartimentos
de decrecimiento exponencial, pero con una escala de decrecimiento que de-
pende del par de compartimentos considerados. As, los efectos producidos
en una columna de cierto compartimento estaran clasicados dependiendo de
los compartimentos con que interact ua. En nuestro modelo consideramos que
las velocidades de propagacion de los potenciales de accion no dependen de
los compartimentos que se estan considerando. La division de la corteza
en n compartimentos, ademas de ser una mejor aproximaci on de la corteza
real que la propuesta en las secciones anteriores, nos permite correlacionar
nuestros resultados teoricos con las mediciones reales de actividad cortical.
Ademas nos permitira estudiar el diagrama de conexiones funcional que se
establece en un estado siologico dado. Se podra estudiar, tambien la inter-
relacion que existe entre las distintas areas de la corteza, siguiendo la division
propuesta por el anatomista K. Brodmann (Fig. # 9).
A continuacion describiremos mas detalladamente este modelo.
Como ya hemos mencionado, en el presente modelo consideramos a la
corteza cerebral dividida en n compartimentos ajenos
i
, i = 1, . . . , n. Por
simplicidad y siguiendo las ideas de las secciones anteriores, consideraremos
una banda de corteza en la cual, las ondas que se propagan por ella, tienen
longitud de onda muy peque na con respecto a la longitud de la misma. Con
estas simplicaciones puede pensarse en la corteza como una recta dividida
en n intervalos disjuntos, identicando los dos intervalos innitos como uno
solo (considerando que los efectos de los dos intervalos innitos provocan
68
el mismo efecto sobre los otros intervalos).
Lo que deseamos es relacionar la densidad de actividad sinaptica excita-
toria e inhibitoria en una columna de corteza con los potenciales de accion
que se generan en las otras columnas en tiempos anteriores, pero como te-
nemos dividida a la corteza en n compartimentos, aumentar a el n umero de
ecuaciones a considerar.
A continuacion procederemos a denir las variables y parametros que
intervienen en el modelo, deduciremos las ecuaciones en forma integral y al
igual que en las secciones anteriores transformaremos estas en un sistema de
ecuaciones diferenciales parciales.
Como en las secciones anteriores, el subndice + se referira a las sinapsis
excitatorias y el a las sinapsis inhibitorias.
Sean :
a) h
ij
(x, t) =
n
i=1
h
ij
(x, t) + f
j
(x, t) . (2.73)
Representara la densidad de actividad sinaptica total en la columna x
j
en el instante t, producida por los potenciales de accion generados
en todas las regiones de la corteza y las estructuras internas del cerebro,
principalmente el talamo.
d) R
ij
(x
i
y por unidad de velocidad, es
decir, R
ij
(x
, x, v)dx
hasta la columna x
+ dx
y por
cuyos axones los potenciales de accion viajan con velocidad entre v
y v + dv.
e) g(x, t) La fraccion del total de neuronas en la columna x que generan
potenciales de accion en el instante t.
f) g
j
(x, t) La fraccion del total de neuronas en la columna x
j
que
generan potenciales de accion en el tiempo t. Obviamente
g(x, t) = g
j
(x, t) para x
j
. (2.74)
Lo que queremos conocer es la evolucion espacio-temporal de la densidad
de actividad sinaptica total en cada columna de cada compartimento de la
corteza (h
ij
(x, t), x
j
, j = 1, . . . , n). Para lograr esto, primero obten-
dremos la evolucion espacio-temporal de la densidad de actividad sinaptica
en cada columna de un compartimento dado de la corteza producida por
la interaccion con otro compartimento de la misma (h
ij
(x, t), x
j
, i, j =
1, . . . , n) y le a nadiremos la producida por las estructuras internas del cerebro
(f
j
+
(x, t), j = 1, . . . , n).
Consideraremos que por cada par de compartimentos
i
,
j
se cumplen
las siguientes hipotesis :
1. Existe una unica velocidad de propagacion, v
, de los potenciales de
accion que viajan de
i
a
j
y que no depende de
i
ni de
j
.
2. La densidad de conexiones (R
ij
(x
i
,
j
.
R
(x
, x, v) =
n
i=1
R
ij
(x
, x, v), x
j
, (2.75)
donde
70
R
ij
(x
, x, v) =
_
ij
(x
)e
ij
|xx
|
S
j
(x)(v v
) , si x
j
, x
i
0 , en otro caso
(2.76)
R
(x
(x
) (1/cm)
es un factor de normalizacion, sujeto a la condicion
n
i=1
_
R
ij
(x
)e
ij
|xx
|
dx
= 1, para cada x
j
. (2.77)
En lo que sigue, identicaremos
i
(i = 1, . . . , n) con el conjunto de
los n umeros reales y si suponemos
ij
(x
) constante;
ij
(x
) =
ij
,
entonces de (2.77) obtenemos :
2
n
i=1
ij
ij
= 1 . (2.78)
Debido al caracter local de las inhibiciones, podemos suponer que
ij
= 0 si i = j.
As, en lo que sigue consideraremos que :
ij
+
=
ij
+
2n
,
jj
=
jj
2
. (2.79)
3. Los potenciales de accion que se generan en la columna x
j
en el
instante t, dependen de la actividad sinaptica total en x
i
en el in-
stante t y de la densidad de la actividad neuroqumica (concentraci on
de neurotransmisores) que se realice en dicha columna en ese instante.
Nosotros solo consideraremos la dependencia de g
i
con respecto a la ac-
tividad total en la columna x en el instante t. Ademas, de la suposicion
de que la actividad inhibitoria en la corteza solo tiene un caracter local,
se concluye que h
ki
(x, t) 0 si k = i.
71
Finalmente como las conexiones aferentes a la corteza son solo excitato-
rias, tenemos que f
j
(x, t) 0 y as obtenemos
g
i
(x, t) = g
i
(
n
k=1
h
ki
+
(x, t) + f
i
+
(x, t), h
ii
(x, t) =
ij
+
2n
S
j
(x)
_
jj
+
|xx
|
g(x
, t
|x x
|
v
+
)dx
, (2.81)
h
jj
(x, t) =
jj
2
S
j
(x)
_
x+
x
e
jj
+
|xx
|
g(x
, t
|x x
|
v
)dx
, (2.82)
donde el parametro > 0 corresponde a la localidad de la actividad inhibito-
ria. De nuevo, debido al caracter local del proceso inhibitorio, consideraremos
que h
ij
(x, t) 0 si i = j.
Introduciendo las nuevas funciones incognitas
H
ij
+
(x, t) =
nh
ij
+
(x, t)
S
j
(x)
, H
jj
(x, t) =
h
jj
(x, t)
S
j
(x)
(2.83)
y realizando el mismo proceso de aplicar el operador
2
x
2
a cada lado de
(2.81), (2.82) y despues pasar al lmite cuando 0, se obtiene, debido a
(2.74)
2
H
ij
+
t
2
+ 2
ij
+
v
+
H
ij
+
t
+ (
ij
+
)
2
v
2
+
H
ij
+
v
2
+
2
H
ij
+
x
2
=
ij
+
v
+
_
ij
+
v
+
g
ij
(x, t) +
g
ij
t
(x, t)
_
, x
j
, (2.84)
2
H
jj
t
2
+ 2
jj
H
jj
t
+ (
jj
)
2
v
2
H
jj
v
2
2
H
jj
x
2
= 0, x
j
, (2.85)
72
donde g
ij
(x, t) es la fraccion del total de neuronas que generan potenciales
de accion en x
j
debido a las sinapsis que provienen de neuronas en
i
.
En lo que sigue supondremos que
g
ij
(x, t) =
ij
(x)g
j
(x, t) , (2.86)
donde g
j
(x, t) esta denida en (2.74) y 0
ij
(x) 1 es tal que
n
i=1
i,j
(x) = 1, para toda x
j
.
Las funciones
ij
(x); i, j = 1, . . . , n determinan el diagrama de conexion
funcional en la corteza, correspondiente a un estado siologico, caracterizado
por una funcion de activacion de neuronas g
j
(x, t) para cada compartimento
j
; j = 1, . . . , n. El hecho de que
ij
(x) pueda ser diferente de
kj
para
i = k nos permite considerar una distribucion no homogenea de activacion
en x
j
correspondiente a los compartimentos
k
y
i
que no podamos
considerar en el modelo estudiado en las secciones anteriores.
Sea V
H
jj
(x, t)
(V
+
+ V
)
, (2.87)
i, j = 1, . . . , n , que llamaremos variable de activacion parcial en x
j
, en
el instante t, provocada por la accion de
i
sobre
j
.
De (2.84), (2.85), (2.86), (2.87) se obtiene el siguiente sistema de ecua-
ciones para las variables de activaci on :
2
u
ij
t
2
+ 2
ij
+
v
+
u
ij
t
+ (
ij
+
v
+
)
2
u
ij
v
2
+
2
u
ij
x
2
=
ij
+
v
+
V
+
(n 1)
(V
+
+ V
)
ij
(x)
_
ij
+
v
+
g
j
(x, t) +
g
j
t
(x, t)
_
(2.88)
+ F
ij
(x, t) I
ij
(x, t), x
j
; i, j = 1, . . . , n,
73
donde
F
ij
(x, t) =
V
+
(n 1)
(V
+
+ V
)
_
2
_
f
j
(x,t)
S
j
(x)
_
t
2
+ 2
ij
+
v
+
_
f
j
(x,t)
S
j
(x)
_
t
+(
ij
+
)
2
v
2
+
f
j
(x, t)
S
j
(x)
v
2
+
2
_
f
j
(x,t)
S
j
(x)
_
x
2
_
_ , (2.89)
I
ij
(x, t) =
V
V
+
+ V
2
H
ij
t
2
+ 2
ij
+
v
+
H
ij
t
+ (
ij
+
v
+
)
2
H
jj
v
2
+
2
H
jj
x
2
_
.
(2.90)
Notese que, en (2.90), H
jj
i=1
u
ij
(x, t)
es la llamada variable de activaci on total en x
j
.
De
0
n
i=1
H
ij
+
(x, t) +
_
f
j
(x, t)
S
j
(x)
_
1, para cada x
j
y 0 H
jj
_
0 , si u
j
1 ,
creciente , si 1 u
j
1 ,
1 , si u
j
1 .
(2.92)
Para tener mas arbitrariedad en la seleccion de g
j
, podemos suponer que
es una funcion sigmoide de la variable u
j
que esta muy cercana al valor 0 en
u
j
= 1 y muy cercana al valor 1 en u
j
= 1.
Haremos ahora la suposicion de que las conexiones excitatorias entre com-
partimentos diferentes son pocas en comparacion con las que hay dentro de
cada compartimento, es decir,
jj
+
ij
+
1, si i = j; i, j = 1, . . . , n. (2.93)
Entonces, si ponemos
jj
+
v
+
jj
=
j
,
jj
+
ij
+
= , i = j (2.94)
y pasamos a las nuevas coordenadas
jj
+
v
+
t = ,
jj
+
x = y (2.95)
en (2.88) para todo i, j = 1, . . . , n, obtenemos un sistema con parametro
peque no para las variables de activaci on parcial en coordenadas adimensio-
nales
2
u
ij
2
+ 2
u
ij
+ u
ij
2
u
ij
y
2
=
V
+
(n 1)
(V
+
+ V
)
ij
(y)
_
g
j
(y, ) +
g
j
(y, )
_
+
(2.96)
+
1
(
ij
+
v
+
)
2
_
F
ij
(y, )
I
ij
(y, )
_
;
75
1
jj
+
y
j
, i, j = 1, . . . , n, i = j ,
donde
u
ij
(y, ) = u
ij
(x, t),
ij
(y) =
ij
(x),
g
j
(y, ) = g
j
(x, t),
F
ij
(y, ) = F
ij
(x, ),
I
ij
(y, ) = I
ij
(x, t).
Ademas se tiene
2
u
jj
2
+ 2
u
jj
+ u
jj
2
u
jj
y
2
=
V
+
(n 1)
(V
+
+ V
)
jj
(y)
_
g
j
(y, ) +
g
(y, )
_
+
(2.97)
1
(
+
v
+
)
2
_
F
jj
(y, )
I
jj
(y, )
_
,
1
jj
+
y
j
.
De (2.91) tenemos que
g
j
(y, ) = g
j
( u
j
) ,
donde
u
j
(y, ) =
n
i=1
u
ij
(y, )
es la variable de activacion total de la region
j
en coordenadas adimensio-
nales.
76
En lo que sigue consideraremos que las variables de activaci on se obtienen
en forma de promedios espaciales en cada compartimento
j
, es decir
u
ij
(y, ) = u
ij
(), u
ij
(y) = u
ij
,
g
j
(y, ) = g
j
(),
F
ij
(y, ) =
F
ij
() ,
I
ij
(y, ) =
I
ij
() .
De esta forma, el sistema (2.96), (2.97) se reduce al sistema
2
d
2
u
ij
d
2
+ 2
d u
ij
d
+ u
ij
=
ij
V
+
(n 1)
(V
+
+ V
)
_
g
j
() +
d g
j
d
()
_
+
1
(
ij
+
v
+
)
2
_
F
ij
()
I
ij
()
_
, (2.98)
i, j = 1, . . . , n, i = j ,
d
2
u
jj
d
2
+ 2
d u
jj
d
+ u
jj
=
ij
V
+
(n 1)
(V
+
+ V
)
_
g
j
() +
g
j
()
_
(2.99)
+
1
(
jj
+
v
+
)
2
_
F
jj
()
I
jj
()
_
.
Por simplicidad supondremos que la entrada aferente F
ij
() a la region
j
proveniente de estructuras internas del cerebro es peque na, es decir :
F
ij
() = (
jj
+
v
+
)
G
ij
(), i = j , (2.100)
donde
G
ij
() esta acotada.
77
Por otra parte, de (2.90) se tiene que
1
(
ij
+
v
+
)
2
I
ij
() =
V
(V
+
+ V
)
_
2
d
2
H
jj
()
d
2
+ 2
d
H
jj
()
d
+ H
jj
()
_
, (2.101)
donde
H
jj
() = H
jj
2
j
d
2
H
jj
d
2
+ 2
j
d
H
jj
d
+
H
jj
= 0 , (2.102)
donde
j
viene denido en (2.94). De (2.102) se tiene que
H
jj
() = (a + b)e
/
j
,
donde a y b son parametros que dependen de las condiciones iniciales de
inhibicion.
Finalmente, la ecuacion (2.98) se transforma en
2
d
2
u
ij
d
2
+ 2
d u
ij
d
+ u
ij
=
V
+
(n 1)
(V
+
+ V
)
ij
_
g
j
() +
d g
j
d
()
_
+
2
G
ij
() (2.103)
(V
+
+ V
H
jj
() para cada i, j = 1, . . . , n, i = j .
En la aproximaci on de orden cero, para valores de no cercanos a 0, la
solucion u
0
ij
() de (2.103) satisface la ecuacion
u
0
ij
=
V
+
(n 1)
(V
+
+ V
)
ij
g
j
( u
0
j
)
V
(V
+
+ V
H
jj
(), i, j = 1, . . . , n, i = j ,
(2.104)
donde
u
0
j
() =
n
i=1
u
0
ij
(),
78
de (2.104) se concluye que
u
0
j
=
n
i=1
u
0
ij
() =
V
+
(n 1)
(V
+
+ V
)
g
j
( u
0
j
)
n
i=1,i=j
ij
+ u
0
jj
(n 1)V
(V
+
+ V
H
jj
() ,
(2.105)
de donde se tiene :
u
0
j
=
V
+
(n 1)
(V
+
+ V
)
(1
jj
) g( u
0
j
) u
0
jj
+
(n 1)V
(V
+
+ V
H
jj
() . (2.106)
Si suponemos que g
j
es una funcion sigmoide con un solo punto de in-
exion, entonces la ecuacion (2.106) admite una solucion unica u
0
j
, para
cualquier u
0
jj
, si se cumple la condicion
V
+
(n 1)
(V
+
+ V
)
(1
jj
) g
j
(u) < 1, para cada j = 1, . . . , n. (2.107)
En este caso, aplicando al sistema (2.99), (2.103) los resultados de la
teora de perturbaciones singulares para sistemas con parametro peque no y
de la ecuacion (2.106), tendremos que para cualquier compacto contenido en
{ > 0} la aproximacion de orden cero de la variable de activaci on total,
satisface la ecuacion
d
2
u
0
j
d
2
+ 2
d u
0
j
d
+ u
0
j
=
V
+
(n 1)
(V
+
+ V
)
jj
_
g
j
( u
0
j
) + g
j
( u
0
j
)
d u
0
j
d
_
+
V
+
(n 1)
(V
+
+ V
)
(1
jj
)
_
d
2
g
j
d
2
( u
0
j
) + 2
d g
j
d
( u
0
j
) + g
j
( u
0
j
)
_
(n 1)V
(V
+
+ V
)
_
d
2
H
jj
d
2
+ 2
d
H
jj
d
+
H
jj
_
79
+
1
(
jj
+
v
+
)
2
_
F
jj
()
I
jj
()
_
.
Teniendo en cuenta la expresion de
H
jj
y que
1
(
jj
+
v
+
)
2
I
jj
() =
V
(V
+
+ V
)
_
d
2
H
jj
d
+ 2
d
H
jj
d
+
H
jj
_
=
V
(V
+
+ V
)
2
j
e
/
j
(
j
1) [2a
j
+ (
j
1)(a + b)] .
Obtenemos nalmente la ecuacion
_
1
V
+
(n 1)
(V
+
+ V
)
(1
jj
)g
j
( u
0
j
)
_
d
2
u
0
j
d
2
+
_
2
V
+
(n 1)
(V
+
+ V
)
(2
jj
)g
j
( u
0
j
)
_
d u
0
j
d
+
V
+
(n 1)
(V
+
+ V
)
(1
jj
)g
j
( u
0
j
)
_
d u
0
j
d
_
2
+ (2.108)
_
u
0
j
V
+
(n 1)
(V
+
+ V
)
g
j
( u
0
j
)
_
=
1
(
jj
+
v
+
)
2
F
jj
()
nV
(V
+
+ V
)
2
j
(
j
1)e
/
j
[2a
j
+ (
j
1)(a + b)] ,
donde el primer sumando del miembro derecho esta asociado a la entrada
aferente a la region
j
proveniente de estructuras interiores del cerebro y el
segundo sumando corresponde al control inhibitorio en
j
.
La ecuacion (2.108) describe, en la aproximaci on de orden cero con res-
pecto a las potencias de , la evoluci on temporal de la variable de activaci on
total en cada compartimento
j
.
80
Notese que el coeciente (1
jj
) corresponde a la contribucion de los
compartimentos
j
con i = j a la activaci on de
j
.
Notese ademas que bajo las suposiciones efectuadas se obtienen ecua-
ciones desacopladas para la variable de activaci on total en cada
j
, aunque
como se nalamos en el parrafo anterior el efecto de los restantes comparti-
mentos esta encerrado en el coeciente (1
jj
).
Finalmente hemos obtenido el teorema siguiente.
Teorema 1 Supongamos que la corteza cerebral esta dividida en n compar-
timentos mutuamente ajenos
j
, j = 1, . . . , n y que se cumplen las siguientes
hipotesis:
1. La funcion de distribucion de densidad de conexiones entre dos locali-
zaciones de la corteza esta descrita por (2.75), (2.76), (2.79).
2. La funcion que describe la fraccion del total de neuronas en una locali-
zacion determinada que generan potenciales de accion debido a las
sinapsis que provienen de neuronas ubicadas en otros compartimentos
viene dada por las expresiones (2.86), (2.91) y (2.92).
3. Las conexiones excitatorias entre compartimentos diferentes son pocos
en comparacion con los que hay dentro de cada compartimento, seg un
se expresa en (2.93).
4. Las entradas sinapticas aferentes a la corteza son peque nas en el sentido
de (2.100).
5. Entonces para la aproximacion de orden cero de los promedios espa-
ciales en cada
j
de la variable de activacion total
u
0
j
() =
n
i=1
u
0
ij
() (ver 2.87),
se tiene la ecuacion (2.108), si se cumple la condicion (2.107).
81
Captulo 3
AN
ALISIS MATEM
ON DE LA CORTEZA CERE-
BRAL.
3.1 UN MODELO MATEM
+
v
+
_
+
v
+
g(u) + g
(u)
du
dt
_
V
t
_
(1
v
2
+
v
2
)
d
2
H
dt
2
+ 2(
+
v
+
)
d
H
dt
+ (
+
v
+
)
2
H
_
+f
+
(t) ,
(3.1)
d
2
H
dt
2
= f
(t) , (3.2)
donde f
+
(t), f
(z)dz
_
ds . (3.4)
Sustituyendo (3.3) en (3.1), obtenemos la ecuacion diferencial ordinaria
no lineal que necesitamos estudiar
d
2
u
dt
2
+ 2
+
v
+
du
dt
+ (
+
v
+
)
2
u = V
+
+
v
+
_
+
v
+
g(u) + g
(u)
du
dt
_
V
t
_
(1
v
2
+
v
2
)
d
2
R
dt
2
+2(
+
v
+
)(
dR
dt
+a) + (
+
v
+
)
2
(R(t) + at +b)
_
+f
+
(t) .
(3.5)
A continuaci on realizaremos un cambio de variable que nos permitira
reducir la ecuacion a una ecuacion diferencial equivalente mas sencilla de
estudiar.
83
Lema 3 Sea =
+
v
+
t, entonces la ecuacion (3.5) es equivalente a la
ecuacion diferencial
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g
(u)
du
d
_
V
+
v
+
_
(1
v
2
+
v
2
)
d
2
R
d
2
+ 2(
+
v
+
)(
1
(
+
v
+
)
2
dR
d
+
a
(
+
v
+
)
2
)
+(
+
v
+
)
2
(
R()
(
+
v
+
)
2
+
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
_
+f
+
() .
(3.6)
Demostracion.
Dividimos la ecuacion (3.5) por (
+
v
+
)
2
y usamos la regla de la cadena
para obtener las derivadas necesarias de las funciones que aparecen en la
ecuacion con respecto a .
En el siguiente resultado construiremos, a partir de la ecuacion (3.6),
una familia de ecuaciones diferenciales de primer orden dependiente de un
parametro. Esta familia de ecuaciones diferenciales de primer orden es equi-
valente a la ecuacion diferencial de segundo orden (3.6), en el sentido que se
enuncia en la siguiente proposicion.
Proposicion 1 Si u es una solucion de la ecuacion diferencial (3.6) con
condiciones iniciales u(0) = u
0
y u
(0) = u
0
, entonces u es solucion de la
ecuacion diferencial de primer orden
du
d
+u = V
+
g(u) +e
(F
+
() + K) , (3.7)
84
donde
F
+
() =
_
0
_
V
+
v
+
_
(1
v
2
+
v
2
)
d
2
R
d
2
+ 2(
+
v
+
)(
1
(
+
v
+
)
2
dR
d
+
a
(
+
v
+
)
2
)
+ (
+
v
+
)
2
(
R()
(
+
v
+
)
2
+
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
_
+f
+
()
_
e
d
(3.8)
y
K = u
0
+u
0
V
+
g(u
0
) .
Recprocamente, si u es una solucion de (3.7) con u(0) = u
0
, entonces, u es
una solucion de (3.6) con condiciones iniciales u(0) = u
0
y u
(0) = u
0
.
Demostracion.
Si multiplicamos la ecuacion (3.6) por e
, obtenemos
e
_
d
2
u
d
2
+ 2
du
d
+u
_
= e
V
+
_
g(u) + g
(u)
du
d
_
+
dF
+
d
. (3.9)
Como
d
d
_
e
(
du
d
+u)
_
= e
_
d
2
u
d
2
+ 2
du
d
+u
_
y
V
+
d
d
[e
g(u)] = V
+
[ g(u) + g
(u)
du
d
]
(3.6) se transforma en
d
d
_
e
(
du
d
+u)
_
=
d
d
[V
+
e
g(u) +F
+
()] .
Entonces
85
e
(
du
d
+u) = V
+
e
g(u) + F
+
() + K ,
donde
K = u
0
+u
0
+V
+
g(u
0
) ,
entonces
du
d
+u = V
+
g(u) +e
(F
+
() + K) .
Es decir, u es solucion de la ecuacion (3.7). El recproco se demuestra de
manera similar.
Ahora consideraremos que la entrada externa inhibitoria a la corteza cere-
bral es cero, es decir, tomaremos f
(t) 0.
En este caso la ecuacion (3.6) se reduce a
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g
(u)
du
d
_
V
+
v
+
_
2(
+
v
+
)
a
(
+
v
+
)
2
+ (
+
v
+
)
2
_
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
__
+f
+
()
y
F
+
() =
_
0
_
V
+
v
+
_
2(
+
v
+
)
a
(
+
v
+
)
2
+(
+
v
+
)
2
_
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
__
+f
+
()
_
e
d
En el siguiente resultado, probaremos que si escogemos el estmulo externo
de tal manera que e
(F
+
() +K) sea una funcion periodica en de perodo
86
T, se pueden proponer condiciones sobre g para que la ecuacion diferencial
(3.7) tenga una unica solucion periodica, de perodo T.
Observaci on
Para lograr que e
(F
+
() +K) sea una funcion periodica de perodo T,
basta tomar
f
+
() = p() + q()
donde p() sea una funcion cotinua periodica de perodo T y lim
q() = 0.
Ademas, en nuestro caso se puede demostrar que la funcion q() decrece
a cero en forma exponencial cuando tiende a .
En lo que sigue B = B[0, ) = u : [0, ) R[ u es continua y acotada
en [0, ), para u B, [[u[[
= sup
t[0 ]
[u(t)[ sabemos que B es un espacio
de Banach con [[u[[
.
Sea M = u B : u(0) = u
0
, M es un subespacio cerrado de B.
Teorema 2 Si e
(F
+
()+K) es una funcion continua en [0, ) y periodica
de perodo T, g una funcion tal que V
+
sup
uR
[ g
(F
+
() + K) (3.10)
tiene una unica solucion acotada en [0 )
Demostracion.
Por el metodo de variaci on de parametros, u es una solucion de (3.10) si
y solo si
u() = e
u
0
+
_
0
(e
e
s
[V
+
g(u) + e
s
(F
+
(s) +K)])ds . (3.11)
Vamos a construir un operador T : M M que tiene un unico punto jo
y este punto jo sera una solucion de la ecuacion (3.11) y por lo tanto de la
ecuacion (3.10).
87
Denamos T : M M por
Tu() = e
u
0
+
_
0
(e
e
s
[V
+
g(u) + e
s
(F
+
(s) + K)])ds . (3.12)
1. Vamos a demostrar que Tu es un elemento del espacio M
[Tu()[ [e
u
0
[ +
_
0
[e
+s
[V
+
g(u(s))[ds +
_
0
([e
(F
+
(s) + K)[)ds
[u
0
[ +V
+
e
0
e
s
ds +e
0
[F
+
(s) + K[ds
[u
0
[ +V
+
e
(e
e
0
) +[[F
+
() + K[[
,
por lo tanto
[Tu()[ [u
0
[ +V
+
(1 e
) +[[F
+
() + K[[
[u
0
[ +V
+
+[[F
+
() + K[[
.
Como lim
0
[e
+s
[V
+
( g(u
1
(s))) ( g(u
2
(s)))][ds
V
+
e
sup
uR
[ g
(u)[[[u
1
u
2
[[
0
e
s
ds
= sup
uR
[ g
(u)[[[u
1
u
2
[[
V
+
[1 e
]
Sup[ g
(u)[
uR
[[u
1
u
2
[[
V
+
, por lo tanto
[[Tu
1
Tu
2
[[
k
1
[[u 1 u
2
[[
, con k
1
= V
+
sup
uR
[ g
(u)[ < 1.
El operador T es una contracci on y por el teorema del punto jo de
Banach, T tiene un unico punto jo u, el cual es una solucion de la ecuacion
diferencial (3.10)
En resumen hemos probado que si e
(F
+
()+K) es una funcion periodica,
de perodo T, entonces la ecuacion (3.10) tiene una unica solucion acotada
88
en [0, ). Por el Teorema 4.11 de la pagina 116 del libro [39], se tiene que
la ecuacion diferencial (3.9) tiene una solucion periodica de perodo T, por
la proposicion 1, u es una solucion periodica de la ecuacion (3.6).
Para garantizar que la solucion periodica u cumpla con
[ u() [ maxV
+
, V
,
es necesario considerar, en lugar del conjunto M, el conjunto cerrado M
,
donde M
es
M
= u B [ u(0) = u
0
y exista
0
0 tal que [ u() [ maxV
+
, V
para cada
0
.
Se puede demostrar que el operador T denido en (3.12) tiene la propiedad
de que
T(M
) M
) aparece
en la ecuacion para la funcion de activaci on (u), pero no al reves.
En lo que sigue consideraremos que
1. No existen entradas inhibitorias a la corteza cerebral, esto se traduce
en que f
+
v
+
1 . (3.13)
89
As, la ecuacion diferencial que estudiaremos es
d
2
u
dt
2
+ 2
+
v
+
du
dt
+ (
+
v
+
)
2
u = V
+
+
v
+
_
+
v
+
g(u) + g
(u)
du
dt
_
V
t
[2(
+
v
+
) + (
+
v
+
)
2
(t +)]
+f
+
(t) .
(3.14)
ya que
H
(t) = t + .
Usando el cambio de variable =
+
v
+
t y el lema 3, la ecuacion diferen-
cial (3.14) es equivalente a la ecuacion
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g
(u)
du
d
_
V
+
v
+
_
2(
+
v
+
)
a
(
+
v
+
)
2
+ (
+
v
+
)
2
(
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
)
_
+f
+
() .
(3.15)
As, el problema de control que queremos estudiar es el siguiente: dados
u
0
, u
0
, T, u
T
y u
T
, lo que queremos demostrar es que existen a, b n umeros
reales y u solucion de la ecuacion (3.15) tal que
u(0) = u
0
, u(T) = u
T
y
u
(0) = u
0
, u
(T) = u
T
.
Es decir queremos ver si el sistema dinamico determinado por la ecuacion
(3.15) es controlable.
Para estudiar este problema, nos auxiliaremos de la proposicion 1, la cual
nos garantiza que u es una solucion de (3.15) que satisface las condiciones
iniciales u(0) = u
0
, u
(0) = u
0
si, y solo si, u satisface la ecuacion diferencial
de primer orden
90
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e
, (3.16)
donde
K = u
(0) + u(0) V
+
g(u(0)) , (3.17)
f
0
(t) es una funcion relacionada con las entradas excitatorias a la corteza
cerebral y c
a,b
(t) es la funcion
c
a,b
(t) = V
__
e
_
1
+
v
+
_
t
__
+
v
+
1
_
t
+
v
+
+
v
+
_
+
1
+
v
+
_
a
+
_
e
_
1
+
v
+
_
t
1
_ _
+
v
+
1
_
b
_
. (3.18)
Las constantes a y b estan relacionadas con las condiciones iniciales de la
inhibicion.
El problema de control que estudiaremos es: dado u
0
, u
0
, T > 0, u
T
, u
T
existiran a, b n umeros reales y u solucion de la ecuacion (3.16) tal que
u(0) = u
0
, u(T) = u
T
,
u
(0) = u
0
, u
(T) = u
T
.
?
Este problema es equivalente a probar que la funcion U : R
2
R
2
denida por
U
_
a
b
_
=
_
u(T, a, b)
u
(T, a, b)
_
es sobreyectiva, donde u(t, a, b) es la solucion de la ecuacion diferencial (3.16)
que cumple la condicion inicial u(0) = u
0
.
Nota. Por la importancia que tienen las constantes a, b, es que ahora
denotaremos a las soluciones de (3.16) por u(t, a, b). La dependencia de las
condiciones iniciales se omitira, ya que estas condiciones estaran jas.
91
Sabemos que U es una funcion diferenciable en R
2
.
Para demostrar que U es suprayectiva, probaremos que U es un mapeo
abierto y tambien que U(R
2
) es un conjunto cerrado, y como R
2
es conexo,
se debe tener que U(R
2
) = R
2
.
Para simplicar la notacion, introduciremos las siguientes funciones
v(t) = u(t, a +, b) u(t, a, b) , (3.19)
f
1
(t) = e
_
1
+
v
+
_
t
__
+
v
+
1
_
t
+
v
+
+
v
+
_
+
1
+
v
+
, (3.20)
f
2
(t) =
_
e
_
1
+
v
+
_
t
1
__
+
v
+
1
_
. (3.21)
Como
+
v
+
1 se tiene que f
1
(t) > 0 y f
2
(t) < 0 para cada t 0 .
Lema 4 Para cada 0 < T se cumple
f
1
()f
2
(T) f
2
()f
1
(T) < 0 . (3.22)
Demostracion.
Sea
f
3
() =
f
1
()
f
2
()
. (3.23)
Probaremos primero que f
3
es una funcion decreciente en (0, T], de-
mostrando que f
3
0 en (0, T].
Multiplicando y dividiendo (3.23) por
e
(1
+
v
+
)
y sustituyendo (3.20) y (3.21) en (3.23), se tiene
92
f
3
() =
1
+
v
+
_
_
e
(
+
v
+
1)
1
+
1
+
v
+
1
_
_
. (3.24)
Derivando (3.24), se tiene
f
3
() =
e
_
+
v
+
1
_
_
e
_
+
v
+
1
_
1
_
2
_
1 e
_
1
+
v
+
_
+
v
+
1
_
_
. (3.25)
El primer factor de (3.25) es mayor que cero, as que, para probar que
f
3
< 0 en (0, T], necesitamos probar que el segundo factor de (3.25) es menor
que cero; para esto, consideremos la funcion
f
4
() = 1 e
_
1
+
v
+
_
+
v
+
1
_
.
Como f
4
(0) = 0, entonces, si probamos que f
4
es decreciente en (0, T], se
tendra que f
4
< 0 en (0, T]. Pero
f
4
() =
_
+
v
+
1
_
e
_
1
+
v
+
_
+
v
+
1
_
2
_
e
_
1
+
v
+
_
1
_
0 ,
por lo tanto, f
4
es una funcion decreciente en (0, T]. As, f
4
() 0 para
(0, T]. Esto ultimo implica que f
3
0 en (0, T], que es lo que queramos
probar.
Ahora, por ser f
4
una funcion decreciente, para cada (0, T],se tiene
f
1
(t)
f
2
(t)
f
1
(T)
f
2
(T)
y como f
2
() < 0 para cada , se tiene
f
1
()f
2
(T) f
2
()f
1
(T) < 0 .
En lo que sigue, vamos a necesitar las siguientes derivadas
u
a
(T, a, b),
u
b
(T, a, b),
u
a
(T, a, b) y
u
b
(T, a, b) .
As que vamos a calcular estas derivadas.
93
1.
u
a
(T, a, b) .
Como u(t, a, b), u(t, a +, b) son soluciones de (3.16) se cumple que
du
d
(, a +, b) +u(, a +, b) V
+
g(u(, a +, b)) =
(f
0
() + c
a+,b
() + K)e
,
(3.26)
du
d
(, a, b) + u(, a, b) V
+
g(u(, a, b)) =
(f
0
() +c
a,b
() + K)e
,
(3.27)
entonces, restando (3.27) a (3.26) y usando (3.19) se tiene
dv
d
+v V
+
( g(u(, a +, b)) g(u(, a, b))) = (c
a+,b
() c
a,b
())e
.
Ahora, tomando la parte lineal de g(u(, a, b)), se tiene
dv
d
+v V
+
( g
(u(, a, b)))v = (c
a+,b
() c
a,b
())e
,
pero como
c
a+,b
() c
a,b
() = V
f
1
()
y
v(T) = V
_
T
0
e
t
e
_
T
t
(1V
+
g
(u(,a,b)))d
f
1
(t) dt , (3.28)
entonces, usando (3.19) y dividiendo (3.28) por , se tiene
u(T, a +, b) u(T, a, b)
=
v(T)
= V
_
T
0
e
t
e
_
T
t
(1V
+
g
(u(,a,b)))d
f
1
(t) dt .
94
Tomando el lmite cuando 0, se obtiene
u
a
(T, a, b) = V
_
T
0
e
t
e
_
T
t
(1V
+
g
(u(,a,b)))d
f
1
(t) dt . (3.29)
De manera similar, se puede calcular
u
b
(T, a, b) .
2.
u
b
(T, a, b).
u
b
(T, a, b) = V
_
T
0
e
t
e
_
T
t
(1V
+
g
(u(,a,b)))d
f
2
(t) dt. (3.30)
3.
u
a
(T, a, b).
Como u(t, a, b), u(t, a +, b) son soluciones de (3.16) se cumple
u
(T, a, b) = V
+
g(u(T, a, b)) u(T, a, b) +(f(T) +c(T) +K)e
T
(3.31)
y
u
(T, a+, b) = V
+
g(u(T, a+, b))u(T, a+, b)+(f(T)+c(T)+K)e
T
,
(3.32)
Restando (3.31) a (3.32), se obtiene
u
(T, a +, b) u
(T, a, b) = V
+
[ g(u(T, a +, b)) g(u(T, a, b))]
[u(T, a +, b) u(T, a, b)] + [c
a+,b
(T) c
a,b
(T)]
= [V
+
g
f
1
(T) .
Entonces
u
(T, a +, b) u
(T, a, b)
=
95
[V
+
g
(u(T, a, b)) 1]
_
u(T, a +, b) u(T, a, b)
_
+e
T
V
f
1
(T) ,
Tomando el lmite cuando 0, obtenemos
u
a
(T, a, b) = [V
+
g
(u(T, a, b)) 1]
u
a
(T, a, b) + V
e
T
f
1
(T) . (3.33)
De la misma manera, se obtiene
4.
u
b
(T, a, b).
u
b
(T, a, b) = [V
+
g
(u(T, a, b)) 1]
u
b
(T, a, b) + V
e
T
f
2
(T) . (3.34)
Proposicion 2 Sea U : R
2
R
2
denida por
U
_
a
b
_
=
_
u(T, a, b)
u
(T, a, b)
_
,
donde u(t, a, b) es la solucion de la ecuacion diferencial (3.16) que cumple la
condicion inicial u(0) = u
0
. Entonces U es un mapeo abierto.
Demostracion.
Basta probar que localmente U es un mapeo abierto. Para probar que U
es localmente un mapeo abierto, demostraremos que
DU(a, b) = det
_
_
u
a
(T, a, b)
u
b
(T, a, b)
u
a
(T, a, b)
u
b
(T, a, b)
_
_ ,= 0 (3.35)
para cada a, b elementos de R.
96
DU(a, b) =
u
a
(T, a, b)
u
b
(T, a, b)
u
a
(T, a, b)
u
b
(T, a, b) . (3.36)
Sustituyendo (3.33) y (3.34) en (3.36) se obtiene
DU(a, b) =
u
a
(T, a, b)
_
u
b
(T, a, b) [V
+
g
(u(T, a, b)) 1] + V
e
T
f
2
(T)
_
u
b
(T, a, b)
_
u
a
(T, a, b) [V
+
g
(u(T, a, b)) 1] V
u
b
(T, a, b)f
1
(T)
_
,
entonces
DU(a, b) = V
e
T
_
u
a
(T, a, b)f
2
(T)
u
b
(T, a, b)f
1
(T)
_
. (3.37)
Sustituyendo (3.29) y (3.30) en (3.37) se obtiene
DU(a, b) = V
2
e
T
_
_
T
0
e
s
e
_
T
s
(1V
+
g
(u))d
f
1
(s)f
2
(T) f
2
(s)f
1
(T) ds
_
.
(3.38)
Por el lema 4, se tiene
f
1
(t)f
2
(T) f
2
(t)f
1
(T) < 0 para 0 < t T
y por lo tanto el integrando en (3.38) es estrictamente menor que 0 en el
intervalo [0, T], y por lo tanto
DU(a, b) < 0 para cada a, b R.
As, hemos probado que U es localmente un mapeo abierto y por lo tanto
que U es un mapeo abierto en R
2
.
Ahora demostraremos que U(R
2
) es un conjunto cerrado en R
2
.
Primeramente probaremos el siguiente lema.
97
Lema 5 Para cada T > 0 sea B
T
= (u(T, a, b), u
,
entonces, por el metodo de variaci on de parametros, u debe satisfacer
u() = e
u(0)+e
V
+
_
0
g(u(s))e
s
ds+e
_
0
(f(s)+c
a,b
(s)+K)ds . (3.41)
Evaluando (3.41) en T se tiene
u(T, a, b) = u(0)e
T
+V
+
_
T
0
g(u(s))e
sT
ds +e
T
_
T
0
(f(s) +c
a,b
(s) +K)ds .
(3.42)
Despejando (T, a, b) de (3.42) se tiene
(T, a, b) = u(T, a, b)u(0)e
T
V
+
_
T
0
g(u(s))e
sT
dse
T
_
T
0
(f
0
(s)+K)ds ,
(3.43)
entonces
[ (T, a, b) [[ u(T, a, b) [ + [ u(0)e
T
[ +
[ V
+
_
T
0
g(u(s))e
sT
ds [ + [ e
T
_
T
0
(f
0
(s) + K)ds [ .
(3.44)
98
Ahora, por hipotesis existe N
1
(T) tal que
[ u(T, a, b) [ N
1
(T) para cada (a, b) A. (3.45)
Ademas, como g es acotada por 1 en R y e
1 para 0, se tiene
V
+
_
T
0
g(u(s))e
sT
ds
V
+
T (3.46)
y como f
0
() es continua en el intervalo [0, T], se tiene que, existe M(T) tal
que
_
T
0
(f
0
(s) +K)ds
M(T) . (3.47)
Usando (3.45), (3.46), (3.47) en (3.44) se prueba que
[ (T, a, b) [ N
1
(T) + u
0
+V
+
(T) + M(T) para cada (a, b) A (3.48)
que es lo que queramos probar.
Por (3.41) se tiene
u
(T, a, b) +u(T, a, b) V
+
g(u(T, a, b)) = (f(T) + c
a,b
(T) + K)e
T
. (3.49)
Despejando (T, a, b) de (3.49) se tiene que
(T, a, b) = u
(T, a, b) +u(T, a, b) V
+
g(u(T, a, b)) (f(T) +K)e
T
, (3.50)
entonces,
[ (T, a, b) [[ u
(T, a, b) [ + [ u(T, a, b) [ +
[ V
+
g(u(T, a, b)) [ + [ (f(T) +K)e
T
[ .
(3.51)
Por la hipotesis existe N
2
(T) tal que
[ u
(T, a, b) [ N
2
(T), para cada (a, b) A. (3.52)
Usando (3.45) y (3.52) se tiene que
[ (T, a, b) [ N
2
(T) +N
1
(T) + V
+
+M
1
(T), para cada (a, b) A (3.53)
99
y por lo tanto se obtiene que
(T, a, b) = c
a,b
(T) : (a, b) A
es un conjunto acotado en R.
Ahora, demostraremos que a y b deben satisfacer un par de ecuaciones.
(T, a, b) =
_
T
0
c
a,b
(s)ds =
V
e
_
1
+
v
+
_
T 1
+
v
+
a +V
_
(1)e
_
1
+
v
+
_
T
+ 1
_
+
v
+
1
_
T
_
b
= A(T)a +B(T)b ,
donde
A(T) = V
e
_
1
+
v
+
_
T 1
+
v
+
,
B(T) = V
_
(1)e
_
1
+
v
+
_
T
+ 1
_
+
v
+
1
_
T
_
y
(T, a, b) = V
f
1
(T)a +f
2
(T)b .
Por lo tanto, tenemos que se cumple
A(T)a +B(T)b = (T, a, b) ,
V
f
1
(T)a +V
f
2
(T)b = (T, a, b) .
(3.54)
Si probamos que
_
_
_
A(T) B(T)
V
f
1
(T) V
f
2
(T)
_
_
_
100
es invertible, se tendra que
_
_
_
a
b
_
_
_ =
_
_
_
A(T) B(T)
V
f
1
(T) V
f
2
(T)
_
_
_
1
_
(T, a, b)
(T, a, b)
_
para cada (a, b) A.
Pero como hemos demostrado que (T, a, b), (T, a, b) son conjuntos aco-
tados para cada T > 0, se concluye que A es un conjunto acotado.
Probaremos que
A(T)f
2
(T) B(T)f
1
(T)
V
2
,= 0 . (3.55)
A(T)f
2
(T) B(T)f
1
(T)
V
2
= e
_
1
+
v
+
_
T 1
+
v
+
f
2
(T)
_
e
_
1
+
v
+
_
T
+ 1
_
+
v
+
1
_
t
_
f
1
(T) .
Como f
2
(T) < 0,
e
_
1
+
v
+
_
T 1
+
v
+
f
2
(T) < 0 .
Sabemos tambien que f
1
(T) > 0, as si probamos que
_
e
_
1
+
v
+
_
T
1 +
_
+
v
+
1
_
T
_
< 0 , (3.56)
demostraramos la desigualdad
A(T)V
f
2
(T) B(T)V
f
1
(T)
V
2
< 0 .
Para probar (3.56), consideremos la funcion
f
5
(t) =
_
e
_
1
+
v
+
_
t
1 +
_
+
v
+
1
_
T
_
.
101
Se tiene que
f
5
(0) = 0
y su derivada es
f
5
(t) =
_
1
+
v
+
_
t
_
e
_
1
+
v
+
_
t
1
_
.
Como
+
v
+
1, se concluye que
f
5
(t) < 0 para cada t 0 .
Por lo tanto f
5
es un funcion decreciente en [0, ) y como f
5
(0) = 0, se
tiene
f
5
(T) f
5
(0) = 0 .
Con esto ultimo probamos (3.56).
Por lo tanto hemos demostrado que
_
_
_
A(T) B(T)
V
f
1
(T) V
f
2
(T)
_
_
_
es invertible. Que es lo que queramos demostrar.
En la siguiente proposicion, probaremos que U(R
2
) es un conjunto cerrado
en R
2
.
Proposicion 3 Si U : R
2
R
2
denida por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u
(T, a, b)
_
_
_ ,
donde u(t, a, b) es una solucion de (3.16) con u(0) = u
0
. Entonces U(R
2
) es
un conjunto cerrado en R
2
.
102
Demostracion.
Sea (u
T
, u
T
) U(R
2
), existe una sucesion (a
n
, b
n
) : n N tal que
lim
n
_
_
_U
_
_
_
a
n
b
n
_
_
_
_
_
_ = lim
n
_
_
_
u(T, a
n
, b
n
)
u
(T, a
n
, b
n
)
_
_
_ =
_
_
_
u
T
u
T
_
_
_ .
Por demostrar que existen
_
a
b
_
en R
2
y u solucion de (3.16) tal que
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u
(T, a, b)
_
_
_ =
_
_
_
u
T
u
T
_
_
_ .
Como u(T, a
n
, b
n
), u
(T, a
n
, b
n
) : n N es un conjunto acotado en R
2
,
por el lema 5 se tiene que
(a
n
, b
n
) [ n N
es un conjunto acotado en R
2
, por el teorema de Bolzano-Weierstrass, existe
una subsucesion convergente (a
n
j
, b
n
j
) [ j N de (a
n
, b
n
) [ n N. Sea
(a, b) el lmite de esta subsucesion.
Por la continuidad de las soluciones u(t, a
n
j
, b
n
j
) se tiene que
lim
j
u(T, a
n
j
, b
n
j
) = u(T, a, b) ,
as u(T, a, b) = u
T
.
Ademas, como
u
(T, a
n
j
, b
n
j
) = u(T, a
n
j
, b
n
j
) + V
+
g(u(T, a
n
j
, b
n
j
))
+(f(T) + c
an
j
,bn
j
(T) + K)e
T
,
lim
j
(u(T, a
n
j
, b
n
j
)) = u(T, a, b) ,
103
lim
j
(V
+
g(u(T, a
n
j
, b
n
j
))) = V
+
g(u(T, a, b)) ,
y
lim
j
((f(T) +c
an
j
,bn
j
(T) + K)e
T
) = (f(T) +c
a,b
(T) + K)e
T
se tiene que
lim
j
u
(T, a
n
j
, b
n
j
) = u
(T, a, b) .
por lo tanto hemos demostrado que U(R
2
) es un conjunto cerrado en R
2
.
En resumen, hemos probado que el mapeo
U : R
2
R
2
denido por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u
(T, a, b)
_
_
_ ,
donde u(T, a, b) es una solucion de (3.16) con condicion inicial u(0) = u
0
es
un mapeo sobreyectivo.
Teorema 3 El sistema dinamico
d
2
u
d
2
+ 2
du
d
+u = V
+
_
g(u) + g
(u)
du
d
_
V
+
v
+
_
2(
+
v
+
)
a
(
+
v
+
)
2
+ (
+
v
+
)
2
(
a
(
+
v
+
)
3
+
b
(
+
v
+
)
2
)
)
_
+f
+
()
(3.57)
es controlable en R
2
, es decir, dados u
0
, u
0
y T, u
T
y u
T
, existen a, b n umeros
reales y u solucion de la ecuacion (3.57) tal que
u(0) = u
0
, u(T) = u
T
y
u
(0) = u
0
, u
(T) = u
T
.
104
Demostracion.
Sean u
0
, u
0
y T, u
T
y u
T
dados. Por la proposicion 2, U : R
2
R
2
denido por
U
_
_
_
a
b
_
_
_ =
_
_
_
u(T, a, b)
u
(T, a, b)
_
_
_ ,
donde u(t, a, b) es una solucion de
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e
,
con
K = u
(0) + u(0) V
+
g(u(0)),
es un mapeo abierto en R
2
. Por la proposicion 3, U es un mapeo cerrado en
R
2
, por lo tanto como R
2
es conexo, se tiene que U es suprayectiva, es decir,
existen a, b R y u solucion de
du
d
+u V
+
g(u) = (f
0
() +c
a,b
() + K)e
,
con
u(0) = u
0
, u(T) = u
T
,
u
(0) = u
0
, u
(T) = u
T
y
K = u
(0) + u(0) V
+
g(u(0)) .
Pero por la proposicion 1, u tambien es solucion de (3.57), y as hemos
demostrado el teorema.
105
3.3 EXISTENCIA DE ONDAS VIAJERAS EN LA CORTEZA
CEREBRAL
En esta seccion estudiaremos la existencia de estados siologicos que se
corresponden con la existencia de ondas viajeras (ondas que se propagan por
el medio cortical sin perder su forma) en la ecuacion (2.71).
En el caso de modelos matematicos de neuronas se ha demostrado la
existencia de ondas viajeras [30], [48], [101]. Tambien se ha estudiado este
problema en otro tipo de procesos de reaccion difusion [102].
Buscaremos bajo que condiciones la ecuacion diferencial parcial
2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+
2
u
x
2
= V
+
+
v
+
_
+
v
+
g(u) + g
(u)
u
t
_
(3.58)
tenga soluciones de la forma: u(x, t) = (x ct) para algunos valores de la
constante c.
Como en la seccion anterior, haremos algunos cambios de variable, que no
alteran el resultado buscado, pero que nos permitiran construir una ecuacion
diferencial parcial equivalente a (3.58) mas sencilla de estudiar.
Si hacemos el cambio de variable =
+
v
+
t y y =
+
x, la ecuacion (3.58)
es equivalente a la ecuacion
2
u
2
+ 2
u
+u
2
u
y
2
= V
+
_
g(u) + g
(u)
u
t
_
. (3.59)
Para esta ecuacion buscaremos soluciones de la forma
u(y, ) = (y c) = (s) con s = y c y tal que () = s
0
= ()
donde s
0
es constante.
Antes de estudiar este tema, enunciaremos algunos resultados impor-
tantes que usaremos mas adelante en esta seccion. Estos resultados no seran
demostrados. Para ver la demostracion de los Teoremas 4 y 5, recurrir a [23].
Teorema 4 Sea A una matriz n n y f : R R
n
una funcion continua
acotada Consideremos la ecuacion diferencial
106
du
dt
= Au +f(t) . (3.60)
La condicion necesaria y suciente para que la ecuacion (3.60) tenga una
unica solucion acotada en R, es que (A) no intersecte al eje imaginario.
En este caso la solucion acotada se expresa en la forma.
u(t) =
_
, t > 0
e
At
P
+
, t < 0 ,
(3.62)
donde P
, P
+
son, respectivamente los proyectores sobre los subespacios pro-
pios con parte real positiva, negativa.
Teorema 5 Consideremos la ecuacion
du
dt
= Au +f(t, u) . (3.63)
Supongamos que se cumplen las condiciones siguientes
1. A es una matriz n n, tal que
(A) (0 R) = . (3.64)
2. Sea > 0. Existe M > 0 tal que
[ f(t, u) [ M para t R y [ u [ . (3.65)
3. Existe q > 0 tal que
[ f(t, u
1
) f(t, u
2
[ q [ u
1
u
2
[ para [ u
1
[ y [ u
2
[ . (3.66)
107
4. Existe N > 0 y r > 0 tal que
[ G(t) [ Ne
rt
para cada t R. (3.67)
5. M y q cumplen con
M
r
2N
y q <
r
2N
. (3.68)
Entonces, la ecuacion (3.63) tiene una unica solucion acotada en R, tal
que
[ u(t) [ para cada t R. (3.69)
Ahora, demostraremos un lema, que usaremos posteriormente.
Lema 6 Sea f : R
2
R
2
continua. Supongamos que la ecuacion diferencial
dx
dt
= f(x), x R
2
(3.70)
tiene un unico punto estacionario x
0
, el cual es un punto silla. Entonces
la condicion necesaria y suciente para que la ecuacion (3.70) tenga una
solucion homoclnica es que tenga una solucion no trivial acotada en R.
Demostracion.
La suciencia es evidente.
Sea una solucion no trivial acotada de (3.70). Como x
0
es el unico
punto estacionario de la ecuacion (3.70), y como ademas es un punto silla, el
teorema de Poincare-Bendixon, nos asegura que
1. lim
t
(t) = x
0
o
2. () = x
0
= (), donde () y () son, respectivamente los
conjuntos -lmite y -lmite de la orbita generada por la solucion .
108
En ambos casos, sera la solucion homoclnica no trivial buscada.
En lo que sigue, retomaremos el problema de la existencia de las ondas
viajeras para la ecuacion (3.59)
2
u
2
+ 2
u
+u
2
u
y
2
= V
+
_
g
(u)
u
+ g(u)
_
.
Es decir, buscaremos soluciones de la forma
u(y, ) = (y c) , (3.71)
donde es una funcion de una variable que cumple que el
lim
s
(s) =
0
, (3.72)
donde
0
es una constante.
Ahora veremos que la existencia de soluciones de la ecuacion (3.59) que
son de la forma (3.71) y que cumplen con la condicion (3.72), es equivalente
a la existencia de soluciones de una ecuacion diferencial ordinaria de segundo
orden, que cumplen con la condicion (3.72).
Si u es una solucion de la ecuacion (3.59) de la forma (3.71), que cumple
con la condicion (3.70), entonces usando la regla de la cadena, obtenemos
u
= c
d
ds
,
2
u
2
= c
2
d
2
ds
2
,
u
y
=
d
ds
,
2
u
y
2
=
d
2
ds
2
.
Sustituyendo estas derivadas en la ecuacion (3.59) y reordenando la ecuacion,
obtenemos que debe ser solucion de la ecuacion
(c
2
1)
d
2
ds
2
+c(V
+
g
() 2)
d
ds
+ ( V
+
g()) = 0 . (3.73)
Recprocamente, si es solucion de (3.73) que cumple con la condicion
(3.72) entonces la funcion
u(y, ) = (y c)
es una solucion de la ecuacion (3.59).
109
Observaci on.
En lo que sigue supondremos que 0 < c < 1, ya que esto corresponde a
una velocidad real de propagacion, cV
+
, la cual no puede ser superior a la
velocidad de propagacion de los potenciales de accion.
Tambien tenemos que la ecuacion (3.73) es equivalente al sistema de ecua-
ciones de primer orden.
d
dt
_
_
=
_
_
_
0 1
1
1c
2
2c
1c
2
_
_
_
_
_
+
V
+
1 c
2
_
0
c g
() g()
_
, (3.74)
donde (s) =
d
ds
La existencia de ondas viajeras para la ecuacion (3.59) es equivalente a
la existencia de soluciones homoclnicas para la ecuacion (3.74) para alg un
valor de c (0, 1).
De (3.73) es evidente que para c = 1 no puede haber soluciones ho-
moclnicas para esta ecuacion.
En lo que sigue supondremos que
g
() <
1
V
+
para cada R. (3.75)
Con esta condicion veremos que el sistema (3.74) tiene un unico punto
estacionario para cualquier valor de la constante c que cumple 0 < c < 1.
Ademas, este punto estacionario es independiente de c y es un punto
silla del sistema. Con este resultado, el problema de encontrar soluciones
homoclnicas para el sistema (3.74) se reduce al de buscar soluciones acotadas
en R, diferentes de la trivial de este sistema.
Como las soluciones estacionarias de (3.74) son de la forma
_
0
0
_
donde
0
es raz de la ecuacion
V
+
g() = 0 .
De la condicion V
+
g
() <
1
V
+
, se concluye que esta ecuacion tiene una
unica solucion
0
, que corresponde a una unica solucion estacionaria de
(3.74).
110
Para determinar si el punto estacionario es un punto silla, estudiaremos
la parte lineal del sistema en un entorno del punto estacionario.
Calculando la derivada del lado derecho de (3.74) en el punto estacionario
y haciendo algunos calculos obtenemos que la parte lineal del sistema en
un entorno del punto estacionario es
d
dt
_
_
=
_
_
_
0 1
1
c
2
1
(V
+
g
(
0
) 1)
c
c
2
1
(2 V
+
g
(
0
))
_
_
_
_
_
. (3.76)
Su ecuacion caracterstica es :
_
+
c
c
2
1
(V
+
g
(
0
) 2)
_
+
1
c
2
1
(V
+
g
(
0
) 1) = 0 . (3.77)
Las races de (3.77) son
=
c
c
2
1
(2 V
+
g
(
0
))
_
(
c
c
2
1
(2 V
+
g
(
0
))
2
+
1
c
2
1
(V
+
g
(
0
) 1))
2
.
(3.78)
Ahora, como V
+
g
(
0
) < 1 y 0 < c < 1, obtenemos 0 <
+
y
< 0.
Por lo tanto
_
0
0
_
es un punto silla de (3.76) para cualquier valor de
0 < c < 1.
Seg un el lema 6, la existencia de soluciones homoclnicas de (3.74) es
equivalente a la existencia de soluciones acotadas diferentes de la trivial
_
0
0
_
.
Por el teorema 4, si se denota por
A
c
=
_
_
_
0 1
1
1c
2
2c
1c
2
_
_
_ (3.79)
y G(t, c) la correspondiente funcion de Green principal, entonces las solu-
ciones acotadas en R de (3.74) coinciden con las soluciones acotadas de la
ecuacion integral
_
_
=
V
+
1 c
2
_
G(t , c)
_
0
c g
(()() g()
_
d . (3.80)
111
Ahora estudiaremos bajo que condiciones la ecuacion integral (3.80) tiene
soluciones acotadas.
Lema 7 La funcion de Green principal de A
c
es
G(t, c) =
_
_
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ , si t > 0
1
2
e
t
c+1
_
_
_
1 + c 1 c
2
1 1 c
_
_
_ , si t < 0 .
(3.81)
Demostracion.
Seg un (3.62), requerimos calcular e
A
c
t
y los proyectores P
+
, P
.
Los valores propios de A
c
son
1
1 +c
,
1
c 1
. (3.82)
Usando la forma canonica de Jordan de A
c
, y realizando algunos calculos,
que no escribiremos aqu, obtenemos
e
A
c
t
=
1
2
e
t
1+c
_
_
_
1 +c 1 c
2
1 1 c
_
_
_ +
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ . (3.83)
Los proyectores son
P
+
c
_
x
y
_
=
1
2
_
_
_
1 + c 1 c
2
1 1 c
_
_
_
_
x
y
_
, (3.84)
P
c
_
x
y
_
=
1
2
_
_
_
1 c c
2
1
1 1 + c
_
_
_
_
x
y
_
. (3.85)
112
Sustituyendo (3.83), (3.84) y (3.85) en (3.62), se obtiene
G(t, c) =
_
_
1
2
e
t
c1
_
_
_
1 c c
2
1
1 1 + c
_
_
_ , si t > 0
1
2
e
t
c+1
_
_
_
1 + c 1 c
2
1 1 c
_
_
_ , si t < 0 .
(3.86)
Lema 8
[ G(t) [ (1 + c)e
|t|
1+c
. (3.87)
Demostracion.
Se concluye del lema 7 y del hecho que la norma del operador
M(x, y) =
_
_
_
a
11
a
12
a
21
a
22
_
_
_
_
x
y
_
cumple
[ M [ 2K ,
donde
K = max
1i2, 1j2
[ a
ij
[ .
Para obtener estimados mas simples sin perder generalidad del inte-
grando en la ecuacion integral, supondremos
g(u) =
1
1 + e
u+
con > 0, > 0 . (3.88)
Obteniendo la primera y segunda derivada de g, denida por (3.88) se
tiene
g
(u) = g
(1 2 g) , (3.90)
[ g
[ , (3.91)
[ g
[ 2
2
. (3.92)
Lema 9 Sea > 0. Si
[ [
2
+ [ [
2
2
,
[
i
[
2
+ [
i
[
2
2
para 1 i 2 .
Entonces, se tienen las siguientes desigualdades
[ c g
() g() [ c + 1 , (3.93)
[ (c g
(
1
)
1
g(
1
)) (c g
(
2
)
2
g(
2
)) [ 2(c + 1) . (3.94)
Demostracion.
Se sigue inmediatamente de (3.91) y (3.92).
Proposicion 4 Supongamos que en el sistema (3.74) la funcion g tiene la
forma
g() =
1
1 + e
+
, > 0, y > 0 .
Supongamos ademas que V
+
<
1
4
. Entonces para cada > max
0
,
1
2
existe 0 < c() < 1 tal que para cada 0 < c < c(), la unica solucion acotada
de este sistema contenida en la bola cerrada
_
_
R
2
:[ [
2
+ [ [
2
2
,
es la solucion estacionaria
_
0
0
_
. Ademas c() viene dada por
c() =
_
1 +
1
+
1
4
2
V
+
_
+
_
_
1 +
1
+
1
4
2
V
+
_
2
4
_
1
1
4
2
V
+
_
2
. (3.95)
114
Observaci on.
La condicion V
+
<
1
4
garantiza que
_
0
0
_
es el unico punto estacionario
del sistema (3.74), donde
0
es la unica solucion de la ecuacion
V
+
g() = 0 .
Demostracion.
Demostraremos que bajo las condiciones de esta proposicion, el sistema
(3.74) cumple con las condiciones del teorema 4, y que por lo tanto este
sistema debe tener una unica solucion acotada u contenida en la bola cerrada
_
R
2
:[ [
2
+ [ [
2
2
, pero como
_
0
0
_
es tambien una solucion
acotada del sistema contenida en la misma bola cerrada, se debe tener que
_
0
0
_
es la unica solucion del sistema (3.74) en esta bola cerrada.
Pasemos a demostrar que el sistema (3.74) cumple con las hipotesis del
teorema 5.
Los valores propios de la matriz A
c
son
1
1 + c
,
1
c 1
,
por lo tanto A
c
cumple con la condicion (3.64).
Por el lema 9 se tiene
V
+
1 c
2
_
0
c g
() g()
_
V
+
1 c
2
(c + 1) para
2
,
V
+
1 c
2
_
0
c g
(
1
) g(
1
) (c g
(
2
)
2
g(
2
))
_
V
+
1 c
2
2(c + 1)
1
_
2
_
2
para
1
_
2
y
2
_
2
.
115
As, tambien se cumplen las condiciones (3.66), (3.67), con
M = (c + 1)
V
+
1 c
2
, q = 2(c + 1)
V
+
1 c
2
.
Por los lemas 7 y 8, se tiene que la funcion de Green principal, G(t, c),
de A
c
cumple
[ G(t, c) [ (1 + c)e
|t|
1+c
,
por lo tanto, tambien se cumple (3.67) con
N = 1 + c y r =
1
1 +c
.
Solo nos falta probar la condicion (3.68), es decir, nos falta probar que
bajo las condiciones de la proposicion 4 se cumple
(c + 1)V
+
1 c
2
2(1 + c)
2
, (3.96)
2(c + 1)V
+
1 c
2
<
1
2(1 + c)
2
. (3.97)
Multiplicando (3.96), (3.97) por 1c
2
y simplicando obtenemos que este
sistema de desigualdades es equivalente a
(c + 1)V
+
(1 c)
2(1 + c)
, (3.98)
2(c + 1)V
+
<
1 c
2(1 + c)
. (3.99)
Realizando algunas operaciones y reordenando obtenemos que el sistema
(3.98), (3.99) es equivalente al sistema
P
1
(c) = c
2
+
_
1 +
1
+
1
2V
+
_
c +
1
1
2V
+
0 , (3.100)
P
2
(c) = c
2
+
_
1 +
1
+
1
4
2
V
+
_
c +
_
1
1
4
2
V
+
_
< 0 . (3.101)
116
As que necesitamos probar que
P
1
(c) 0 , (3.102)
P
2
(c) < 0 . (3.103)
Para probar esto, obtengamos las races de los polinomios cuadraticos
P
1
(c), P
2
(c).
Las races de P
1
son
() =
_
1 +
1
+
1
2V
+
_
_
1 +
1
+
1
2V
+
_
2
4
_
1
1
2V
+
_
2
.
(3.104)
Las races de P
2
son
() =
_
1 +
1
+
1
2V
+
_
_
1 +
1
+
1
4V
+
2
_
2
4
_
1
1
4
2
V
+
_
2
.
(3.105)
Como por hipotesis V
+
<
1
4
y >
1
2
se tiene
1
1
4
2
V
+
< 0 ,
por lo tanto las races de P
1
(c) son reales, una negativa,
1
(), y la otra
positiva
1
+
(). Lo mismo ocurre con P
2
(c), tiene una raz negativa,
2
() y
otra raz positiva,
2
+
().
Entonces
P
1
(c) 0 para
1
() c
1
+
() , (3.106)
P
2
(c) < 0 para
1
() < c <
2
+
() . (3.107)
Ademas
2
+
() <
1
+
() , (3.108)
117
esto ultimo se sigue de la expresion para cada uno de ellos y del hecho que
4
2
V
+
= 2(2V
+
) > (2V
+
) ya que >
1
2
.
Tambien es facil probar que
1
+
() < 1. As, si tomamos 0 < c() =
1
+
() < 1 se tiene que, para cualquier 0 < c < c()
P
1
(c) 0 ,
P
2
(c) < 0 ,
que es lo que deseabamos demostrar.
Resumiendo, con las condiciones de la proposicion 4, el sistema (3.74)
cumple con las condiciones del teorema 5, para cualquier 0 < c < c(). Esto
es lo que queramos demostrar.
Con la proposicion 4, hemos demostrado que si V
+
<
1
4
, > max
0
,
1
2
,
entonces el sistema (3.74) no puede tener soluciones homoclnicas para 0 <
c < c(), por lo tanto, la no existencia de ondas viajeras para la ecuacion
(3.59), cuando tomamos 0 < c < c().
Ahora pasaremos a analizar que sucede cuando tomamos > max
0
,
1
2
=
__
_
: R R
2
:
_
_
es continua, | |
2
+ | |
2
2
_
.
Sabemos que
_
, c
_
denida por
F
__
_
, c
_
=
_
_
F
1
__
_
, c
_
, (3.109)
donde
F
1
__
_
, c
_
=
V
+
1 c
2
_
G(t , c)
_
0
c g
(())() g(())
_
d .
(3.110)
118
Para que F
_
_
_
, c
_
act ue de
2
+
() < c <
1
+
() .
As consideremos
F :
(
2
+
(),
1
+
())
0
0
_
es un punto estacionario del sistema (3.74) para cada 0 < c <
1, tenemos que
F
__
0
_
, c
_
= 0 para cada
2
+
() < c <
1
+
() .
Entonces, si lograramos probar que DF
__
0
0
_
, c
_
es invertible, y que se
cumplen las otras condiciones del teorema de la funcion implcita en un en-
torno de
__
0
0
_
, c
_
, se concluira que existen U, V vecindades de
_
0
0
_
y c res-
pectivamente, tal que para cada c
) =
_
_
U
tal que
F
__
_
, c
_
= 0 ,
pero entonces,
_
_
sera una solucion acotada en R, no trivial del sistema
(3.74) y por lo tanto una solucion homoclnica del mismo sistema, a la cual
le correspondera una onda viajera de la ecuacion (3.59) con velocidad c
.
As que, en lo que sigue probaremos que el operador integral F con
1
+
() < c <
2
+
(), cumple con las condiciones del teorema de la funcion
implcita.
Vamos ahora a calcular la derivada de Frechet de F en
__
_
, c
_
con
1
+
() < c <
2
+
(). Por la forma que tiene F, basta calcular la derivada
de Frechet de la funcion F
1
. Ademas se tendra que
DF
__
_
, c
_
= I DF
1
__
_
, c
_
. (3.111)
119
Para hacer esto, calcularemos las derivadas de Gato de F
1
en
_
_
con res-
pecto a y respectivamente. Denotaremos estas derivadas por
F
1
__
_
, c
_
,
F
2
__
_
, c
_
respectivamente.
Lema 10 Bajo las condiciones de la proposicion 4, el operador integral F
denido en (3.110), es de clase C
1
en un entorno de
__
0
0
_
, c
_
. Ademas la
derivada parcial de Frechet de F con respecto a
_
_
, la cual denotamos por
DF
__
_
, c
_
, viene dada por
DF
__
_
, c
_
= I DF
1
__
_
, c
_
,
con
DF
1
__
_
, 0
_
=
F
1
__
_
, c
_
+
F
1
__
_
, c
_
(3.112)
y
F
1
__
_
, c
_
,
F
1
__
_
, c
_
son las derivadas de Gato, con respecto a y , respectivamente, las cuales
vienen dadas por
F
1
__
_
, c
_
(h) =
V
+
2
_
_
_
e
t
c+1
1 +c
_
t
_
e
c+1
_
c + 1
1
_
[ c g
(())() g
(() ]h()
_
d
+
e
t
c1
c + 1
_
t
_
e
c1
_
c 1
1
_
[ c g
(())() g
(()) ]h()
_
d
_
_
_
, (3.113)
F
1
__
_
, c
_
(k) =
V
+
c
2
_
_
_
e
t
c+1
1 + c
_
t
e
c+1
_
c + 1
1
_
g
(())k() d
+
e
t
c1
1 + c
_
t
c1
_
c 1
1
_
g
(())k() d
_
_
_
. (3.114)
120
Demostracion.
Observemos que
F
1
__
_
, c
_
=
V
+
2
_
_
_
e
t
c+1
1 +c
_
t
_
e
c+1
_
c + 1
1
_
c g
(())() g(())
_
d
+
e
t
c1
c + 1
_
t
_
e
c1
_
c 1
1
_
(c g
(())() g(())
_
d
_
_
_
. (3.115)
Calculemos la derivada de Gato de F
1
en el punto
__
_
, c
_
con respecto
a
F
1
__
_
, c
_
(h) = lim
0
_
_
F
1
__
+h
_
, c
_
F
1
__
_
, c
_
_
_
=
V
+
2
_
_
_
lim
0
_
_
e
t
c+1
1 + c
_
t
e
c+1
_
c + 1
1
__
c
_
( g
(() + h()) g
(()))()
_
g(() + h() g(())
__
d
+
e
t
c+1
c + 1
_
t
c+1
_
c 1
1
__
c
_
( g
_
g(()) + h() g(())
__
d
__
.
Entonces
F
1
__
_
, c
_
(h) =
121
V
+
2
_
_
_
e
t
c+1
1 + c
_
t
_
e
c+1
_
c + 1
1
_
[c g
(())()h() g
(())h()]
_
d
+
e
t
1+c
1 + c
_
t
_
e
c1
_
c 1
1
_
[c g
(()()h() g
(())h()]
_
d
_
_
_
.
De manera similar, se obtiene la derivada de Gato de F
1
en
__
_
, c
_
con
respecto a
F
1
__
_
, c
_
(k) =
V
+
c
2
_
_
_
e
t
c+1
c + 1
_
t
e
c+1
_
c + 1
1
_
g
(())k()d
+
e
t
c1
1 + c
_
t
c1
_
c 1
1
_
g
(())k()d
_
_
_
.
Ademas,
F
1
__
_
, c
_
,
F
1
__
_
, c
_
son lineales como funcion de h y k
respectivamente y continuas como funcion de
_
_
, se tiene que la derivada de
Frechet de F
1
con respecto a
_
_
existe y se puede calcular con la expresion
(3.112).
Tambien es facil probar que DF
__
_
, c
_
es continua en un entorno de
(
_
_
, c ).
Lema 11 Bajo las condiciones de la proposicion 4, DF
__
0
0
_
, c
_
es un op-
erador invertible.
Demostracion.
Como
DF
__
0
0
_
, c
_
= I DF
1
__
0
0
_
, c
_
,
122
basta probar que
_
_
_
_
_
DF
1
__
0
0
_
, c
__
_
_
_
_
< 1 .
Evaluando (3.112) en
__
0
0
_
, c
_
obtenemos
DF
1
__
0
0
_
, c
__
h
k
_
=
F
1
__
0
0
_
, 0
_
(h) +
F
1
__
0
0
_
, c
_
(k) , (3.116)
entonces
_
_
_
_
_
DF
1
__
0
0
_
, c
__
h
k
__
_
_
_
_
_
_
_
_
_
F
1
__
0
0
_
, c
_
(h)
_
_
_
_
_
+
_
_
_
_
_
F
1
__
0
0
_
, c
_
(k)
_
_
_
_
_
.
(3.117)
Obtengamos estimados para
_
_
_
_
_
F
1
__
0
0
_
, c
__
_
_
_
_
,
_
_
_
_
_
F
1
__
0
0
_
, c
__
_
_
_
_
.
Evaluando (3.113) en
__
0
0
_
, c
_
obtenemos
F
1
__
0
0
_
, c
_
(h) =
V
+
g(
0
)
2
_
_
_
e
t
c+1
c + 1
_
t
e
c+1
_
c + 1
1
_
h()d +
e
t
c1
1 + c
_
t
c1
_
c 1
1
_
h()d
_
_
_
+
V
+
c g
(
0
)
2
_
_
_
e
t
c+1
c + 1
_
t
e
c+1
_
c + 1
1
_
k()d
e
t
c1
c + 1
_
t
c1
_
c 1
1
_
k()d()
_
_
_
,
entonces
_
_
_
_
_
F
1
__
0
_
, c
_
(h)
_
_
_
_
_
V
+
g
(
0
)
2
_
_
_
c
2
+ 2c + 2
e
t
c+1
c + 1
_
t
e
c+1
d | h |
c
2
2c + 2
e
t
c1
1 +c
_
t
e
c1
d | h |
_
_
_
.
123
Calculando las integrales impropias y simplicando
_
_
_
_
_
F
1
__
0
0
_
, c
_
(h)
_
_
_
_
_
V
+
g(
0
)
2
_
c
2
+ 2c + 2 +
c
2
2c + 2
_
| h |
.
Para 0 < c < 1 se tiene que
c
2
+ 2c + 2 es creciente,
c
2
+ 2c 2 es decreciente.
As se tiene que
_
_
_
_
_
F
1
__
0
0
_
, c
_
(h)
_
_
_
_
_
V
+
g
(
0
)
2
_
5 +
2
_
| h |
. (3.118)
De manera similar se obtiene
_
_
_
_
_
F
1
__
0
0
_
, c
_
(k)
_
_
_
_
_
V
+
g
(
0
)c
2
_
5 +
2
_
| k |
. (3.119)
Sustituyendo (3.118), (3.119) en (3.117), obtenemos
_
_
_
_
_
DF
1
__
0
0
_
, c
__
h
k
__
_
_
_
_
V
+
g
(
0
)
2
(1 +c)
_
5 +
2
_
_
_
| h |
2
+ | k |
2
_
.
Como 0 < c < 1 y V
+
<
1
4
obtenemos
_
_
_
_
_
DF
__
0
0
_
, c
__
h
k
__
_
_
_
_
< 1,
que es lo que queramos probar.
Finalmente, tenemos el siguiente teorema.
124
Teorema 6 Supongamos que en el sistema (3.74), la funcion g tiene la
forma
g() =
1
1 + e
+
, , > 0
y que V
+
<
1
4
. Entonces para cada > max
0
,
1
2
, existen c
1
(), c
2
()
con 0 < c
1
() < c
2
() < 1, tales que, para cada c, que cumpla 0 < c < c
1
(),
la unica solucion acotada de este sistema, contenida en la bola cerrada [0, ],
es la solucion estacionaria
_
0
0
_
. Mientras que, para cada c, con c
1
() c
c
2
(), existe una solucion acotada, no trivial, del sistema, la cual tambien es
una solucion homoclnica, y a la que le corresponde una onda viajera de la
ecuacion (3.59) con velocidad v. La velocidad real de traslacion de esta onda
viajera es cV
+
. Ademas c
1
(), c
2
() son las races positivas de los polinomios
cuadraticos denidos en (3.100), (3.101).
Demostracion.
La existencia de c
1
(), fue demostrada en la proposicion 4. Por los lemas
10 y 11 el operador integral F denido en (3.101) cumple con las condi-
ciones del teorema de la funcion implcita en un entorno de
__
0
0
_
, c
_
, es
decir, F
__
_
, c
_
es de clase C
en un entorno de
__
0
0
_
, 0
_
, F
__
0
0
_
, c
_
= 0 y
DF
__
0
0
_
, c
_
es invertible. Entonces existen entornos U y V de
_
0
0
_
y c res-
pectivamente tales que, para cada c
_
U
no trivial tal que
F
__
_
, c
_
= 0 .
Entonces
_
_
es una solucion no trivial, acotada de (3.80) y por el teorema
3,
_
_
es una solucion acotada, no trivial del sistema (3.74), la cual, por el
lema 6, es una solucion homoclnica del sistema (3.74).
3.4 ONDAS ESTACIONARIAS EN LA CORTEZA
CEREBRAL.
125
En esta seccion estudiaremos las oscilaciones peque nas con la misma
frecuencia angular w para cada x R de la ecuacion
2
u
t
2
+ 2
+
v
+
u
t
+ (
+
v
+
)
2
u v
2
+
2
u
x
2
=
V
+
+
v
+
_
+
v
+
g(u) + g
(u)
u
t
_
(3.120)
alrededor de un estado de reposo de la misma (una solucion u(x, t) u
0
).
Este problema corresponde a considerar una banda circular de ancho
innitamente peque no de corteza cerebral. Lo que queremos saber es si
en nuestro modelo existen ondas estacionarias que se correspondan con los
ritmos basicos del cerebro.
Para estudiar este problema consideraremos una solucion u(x, t) u
0
de
la ecuacion (3.120). Tomaremos la parte lineal de esta ecuacion alrededor de
u
0
y en la ecuacion lineal buscaremos soluciones de la forma
u(x, t) = u
0
+L(x)e
iwt
, (3.121)
con L(x) una funcion periodica real, de periodo 2 y L(x) peque no.
126
Observaci on.
En realidad, lo que buscamos son soluciones de la ecuacion lineal de la
forma
u(x, t) = u
0
+A(x) cos wt
donde A(x) es una funcion periodica real, de periodo 2. Pero como se tiene
una ecuacion lineal, basta encontrar soluciones de la forma (3.121) y despues
tomar la parte real de estas soluciones.
Ahora, si u(x, t) u
0
es una solucion de (3.120) la parte lineal de esta
ecuacion alrededor de u
0
es
2
u
t
2
+
+
v
+
(2 V
+
g
(u
o
))
u
t
+ [(
+
v
+
)
2
(1 V
+
g
(u
0
))] u v
2
+
2
u
x
2
= 0
(3.122)
donde
u = u u
0
Teorema 7 Sea u
0
(0, V
+
) tal que, g
(u
0
) =
2
V
+
, supongamos ademas que
1
2
+
> 0. Entonces la ecuacion (3.122) tiene soluciones de la forma
u(x, t) = L(x)e
iwt
,
con L(x) una funcion periodica real, de periodo 2. Mas concretamente, si
w = v
+
_
_
1
2
+
_
, (3.123)
entonces
u(x, t) = A
1
cos xe
iwt
(3.124)
con A
1
constante, es una solucion de (3.122).
127
Observaci on
Como g
(u
0
) =
2
v
+
, esto nos garantiza que
u(x, t) u
0
es solucion de la ecuacion (3.120).
Demostracion.
Sea w como en (3.123). Obtengamos las derivadas de (3.124)
u
t
= (iw)A
1
cos xe
iwt
,
u
x
= A
1
sen xe
iwt
,
2
u
t
2
= w
2
A
1
cos xe
iwt
,
2
u
x
2
= A
1
cos xe
iwt
.
Sustituyendo estas derivadas en la ecuacion (3.122) obtenemos
w
2
A
1
cos xe
iwt
+
+
v
+
(2 V
+
g
(u
0
))iwA
1
cos xe
iwt
+[(
+
v
+
)
2
(1 V
+
g
(u
0
)]A
1
cos xe
iwt
+v
2
+
A
1
cos xe
iwt
=
(
2
+
1)v
2
+
A
1
cos xe
iwt
+ (
+
v
+
)
2
A
1
cos xe
iwt
+v
2
+
A
1
cos xe
iwt
= 0 ,
ya que g
(u
0
) =
2
V
+
y w = v
+
_
1
2
+
.
128
CONCLUSIONES.
El principal modelo que hemos estudiado, a pesar de ser un modelo que
tiene algunas simplicaciones importantes : modelo unidimensional sin cur-
vatura, considerar una distribucion de conexiones que depende unicamente de
la distancia entre columnas y con escalas de decrecimiento que no dependen
de las regiones corticales consideradas, las complicaciones intra e intercorti-
cales estan incluidas en las funciones R