Вы находитесь на странице: 1из 24

Cap´ıtulo 4

Soluci´on de Grandes Sistemas de Ecuaciones Lineales

En el capitulo anterior se discutio como proceder para transformar un problema de ecuaciones diferenciales parciales con condicion inicial y valores en la frontera en un sistema algebraico de ecuaciones y as´ı poder hallar la soluci´on resolviendo el sistema de ecuaciones lineales que se pueden expresar en la forma matricial siguiente

Au = b

donde la matriz A es bandada y en problemas reales tiene grandes dimensio- nes. La eleccion del m´etodo especifico para resolver el sistema de ecuaciones depende de las propiedades particulares de la matriz A, en la siguientes sec- ciones vamos a examinar varios m´etodos.Los m´etodos de resoluvci´on de del sistema algebraico de ecuaciones Au = b se clasifican en dos grandes gru- pos; los m´etodos Directos y los m´etods iterativos. En los m´etodos directos la soluc´on u se alcanza en un n´umeros fijo de pasos y s´olo estan sujetos a problemas de redondeo. En los m´etodos iterativos, se realizan iteraciones para aproximarse a las soluci´on u provechando las caracter´ısticas propias de la matriz A, tratando de usar el menor n´umero de de pasos que en un m´etodo directo. Los m´etodos iterativos rara vez se usan para resolver siste- mas de ecuaciones sistemas lineales de dimension peque˜na ( El concepto de dimensi´on peque˜na es muy relativo), ya que el tiempo necesario para para conseguir una exactitud satisfactoria rebasa el que requieren los m´etodos di- rectos. Sin embargo, en el caso de de sistemas de ecuaciones grandes con un alto procentaje de elementos cero, son eficientes tanto en almacenamiento

(4.1)

65

66

en la computadora como como el tiempo que se invierte en su soluci´on.Por est˚az´on al resolver estos sistemas algebraicos de ecuaciones es preferible apli- car los m´etodos iterativos como son Jacobi, Gauss-Seidel, Sobrerrelajaci´on sucesiva, Descenso empinado, Gradiente conjugado. Cabe hacer menci´on de que la mayoria del tiempo de computo necesario para resolver el problema de ecuaciones diferenciales parciales (EDP), es consumido en la soluci´on de del sistema de algebraico de ecuaciones asociado a la discretizaci´on, por ello es necesario elegir aquel m´etodo num´erico que minimice el tiempo invertido en este proceso.

Condicionamiento de un Sistema Lineal

No es tan sencillo establecer el n´umero de condici´on que nos indique que el sistema esta bien o mal condicionado. Para sistemas lineales el n´umero de condici´on esta ligado a la matriz del sistema , veamos. Sea Au = b A M n A : inversible b V − {0}. Si en lugar de b tomamos una perturbaci´on de este b + δb, denotamos por u + δu la soluci´on del sistema perturbado se tiene que

A(u + δu) = b + δb

luego δu ≤ | A 1 | δb como

Aδu = δb

δu = A 1 δb

| ·| norma matricial subordinada a A , . norma vectorial

Au = b

se tiene

δu u error relativo resultados
δu
u
error relativo
resultados

| A| u b

u | A|

1

b

≤ | A| | A 1 |

δb b error relativo en datos
δb
b
error relativo
en datos

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

67

Definici´on

|

·

|

norma matricial y A M n

inversible.

El n´umero cond(A) = | A| | A 1 | se denomina condicionamiento ´o n´ume-

ro de condici´on de A M n relativo a la norma | · |

Teorema 9

|

inversible se cumple que:

1. cond(A) 1

2. cond(A) = cond(A) 1

3. cond(λA) = cond(A) para todo λ K − {0}

·

|

Norma matricial subordinada o norma inducida y A M n matriz

Demostraci´on

1. 1 = I = AA 1 A A 1 cond(A)

2. cond(A) = A A 1 = A 1 A = cond(A 1 )

3. Para todo λ

entonces

1 cond(A)

= 0

cond(λA) = λA (λA 1 = |λ||λ 1 | A 1 = cod(A)

Teorema 10 Si A M n inversible. Se verifica que

cond(A) = λ λ n 1 (A (A A) A)

dende λ n (A A) de A A

y

λ 1 (A A) son el mayor y el menor de los autovalores

Denostraci´on

Primero notamos que A A es hermitica y definida positiva por ser A inver- sible, por lo que los auvalores de A A son positivos. Por teorema

y

2

A 2

= ρ(A A) = λ n (A A)

A 1 2

2 = ρ((A 1 ) A 1 ) = ρ((A A) 1 ) =

1

λ 1 (A A)

68

Convergencia de las Iteraciones de una Matriz

Definici´on

·

V si

una norma vectorial, {v k } kN

de V, converge a un vector

k+ v k v = 0 y se denota v =

l´ım

k+v k

l´ım

´

OBSERVACI ON

v

1. La equivalencia de normas en V, demuestra que la convergencia de una

sucesi´on de vectores es independiente de la norma elegida.

2. La definici´on anteriorincluye el caso de la convergencia de matrices, basta

considerar M n (K) como el espacio vectorial de dimenci´on n 2

{A k } kN M n converge a A M n y lo denotamos

A =

k+ A k

l´ım

si

Teorema 11

B M n son equivalentes

l´ım

a) x→∞

l´ım

b) x

B k = 0

B k v = 0

c) ρ(B) < 1

k+ A k A = 0

l´ım

d) Existe · norma matricial ( puede ser inducida ) tal que B < 1

Demostraci´on a) −→ b) · norma matricial subordinada por · norma matricial, por definici´on

k+ B k = 0 ⇐⇒

l´ım

k+ B k = 0

l´ım

Por lo tanto, por definici´on como para todo v V se cumple que

|B k v| ≤ B k |v|

entonces

k |B k | = 0

l´ım

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

69

y as´ı

k B k v = 0

l´ım

b) −→ c)

Por reducci´on al absurdo.Si ρ(B) 1 entonces exixte un autovalor λ =

λ(B) sp(B)con|λ| ≥ 1; basta considerar un autovector v V \{0} asosiado

a λ para llegar a una contradicci´on. En efecto Bv = λv entonces

B k v = λ k v, k N

y

por tanto

 

k+ l´ım B k v =

k+ |λ k | v =

l´ım

0

c)

−→ d)

Por el teorema anterior dado ε > 0 existe una norma matricial · B,ε tal que · B,ε ρ(B) + ε tomando

0 < ε < 1 ρ(B)

se obtiene

· B,ε < ρ(B) + (1 ρ(B)) = 1

d) −→ a)

B k = B k1 B B k1 B

B k , k N

Por lo tanto, la hipotesis B 1implica

Es decir

k+ B = 0

l´ım

l´ım

k+B = 0

Teorema 12 Sea · la norma de una matriz. Entonces

ρ(A) A

A C n.n

Demostraci´on

Sea λ un autovalor de A y v

= 0 el autovalor asociado. Tenemos

|λ| v = λv = Av A v

|λ| ≤ A

70

4.1. M´etodos Iterativos Estacionarios y no Estacionarios

4.1. M´etodos Iterativos Estacionarios y no Es- tacionarios

Denotamos por

R p la matriz de iteraci´on asociada a

=

I P 1 A

x k+1 = x k + P 1 r k

Donde

r k = b Ax k

introducimos el par´ametro α y tenemos el m´etodo estacionario de Richardson

x k+1 = x k + αP 1 r k ,

k 0

m´as general, tenemos α dependiendo del indice de iteraci´on, entonces tenemos el m´etodo no estacionario de Richardson

x k+1 = x k + α k P 1 r k ,

k 0

donde la matrix de iteracion en el kesimo paso de este m´etodo es

R p = I α k P 1 A

Ahora si α k = α el m´etodo en este caso es estacionario.

Si P = I el m´etodo es llamado no precondicionado. El m´etodo de Jacobi y de Gauss-Seidel son m´etodos estacionarios de Richard-

son con α = 1, P = D

y P = D E respectivamente.

Convergencia y An´alisis del M´etodo de Richardson

Vamos a considerar el m´etodo estacionario de Richardson y tenemos los siguientes resultados

Teorema 13 Para una matriz no singular P el m´etodo estacionario de Richardson es convergente sii

2Re(λ i )

α|λ i | 2

> 1

i = 1, 2,

n

donde λ i C son los autovalores de P 1 A

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

71

Demostraci´on

Como λ i C son los autovalores de P 1 A, los autovalores de la matriz de

y por condici´on de convergencia

iteraci´on R p = I P 1 A

son

1 αλ i

|1 αλ i | < 1

i = 1, 2,

n se tiene la desigualdad

(1 αReλ i ) 2 + α 2 (Imλ i ) 2 < 1

1 2αReλ i + (αReλ i ) 2 + α 2 (Imλ i ) 2 < 1

2αReλ i + (αReλ i ) 2 + α 2 (Imλ i ) 2 < 0

tenemos la desigualdad

2Re(λ i )

α|λ i | 2

> 1

i = 1, 2,

n

Teorema 14

Si P es una matriz no singular tal que P 1 A tiene autovalores reales y

λ n . entonces el m´etodo estacionario de

Richardson es convergente si 0 < α <

positivos ordenados λ 1 λ 2

2 Adem´as

λ 1

α opt =

2

λ 1 + λ 2

El radio espectral de la matriz de iteraccion es R α es m´ınimo si α = α opt

ρ opt = m´ın [ρ(R α )] = λ λ 1 1 + λ λ n n

α

Demostraci´on

Los autovalores de R α son λ i (R α ) = 1 αλ i y el m´etodo de Richardson es convergente si

|λ i (R α )| < 1 para i = 1, 2

n

1 < 1 αλ i < 1

2

0 < α <

λ

i

0 < α <

2

λ

1

2

λ

i

i = 1, 2

n

α crit = 2

λ

1

72

4.1. M´etodos Iterativos Estacionarios y no Estacionarios

Ademas los autovalores de R α se comportan como funci´on α (ver figura).Para α todos los autovalores de R α estan comprendidos entre

λ n = λ min y λ 1 = λ max

La tasa de convergencia esta dada por

γ = m´ax |1 αλ i |

i

y queremos buscar el α que da la mejor tasa de convergencia, es decir el m´ınimo γ .Como los 1 αλ i estan comprendidas en el intervalo

1 αλ min y 1 αλ max

es decir

γ

1 αλ min , 1 αλ max

Ahora para el intervalo 0 < α < α opt el maximo corresponde a 1 αλ min , mientras que para α opt < α < α crit el maximo esta dado por 1 + αλ max .Pero requerimos el m´ınimo de γ segun lo visto este se da si α = α opt es decir si

1 αλ min = 1 + αλ max

de donde

α opt =

2

λ min + λ max

Como el γ m´ınimo se da para α = α opt de ahi el nombre de coeficiente de relajaci´on optimo.Ahora reemplazando el α opt obtenemos

ρ opt = m´ın [ρ(R α )] = m´ın

α

α

γ = λ 1 λ n

λ 1 + λ n

Teorema 15 Sea A una matriz simetrica definida positiva, entonces el m´etodo de estacio- nario no precondicionado de Richardson es convergente y

e (k+1) A ρ(R α ) e (k) A ,

k 0

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

73

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales 73 Figura 4.1: Radio espectral en funci´on de

Figura 4.1: Radio espectral en funci´on de los autovalores de P 1 A

Demostraci´on

La convergencia es consecuencia del teorema 7 y tambien tenemos que

1

e (k+1) A = R α e (k) A = A 2 R α e (k) 2 A

1

2

R α e (k) A 1

2

2 A

1

2

e (k) 2

La matriz R α es sim´etrica definida positiva y es similar a A 1 2 R α e (k) A 1

Entonces tenemos A 1 2 R α e (k) A 1 2 = ρ(R α ) adem´as A tenemos

2

.

2

1 2 e (k) 2 = e (k) A

e (k+1) A ρ(R α ) e (k) A ,

k 0

4.2. M´etodo del M´aximo Descenso

Este m´etodo nos servira para resolver sistemas de ecuaciones lineales de la forma

Ax = b

Donde

x: vector de incognitas, b :vector conocido,

A : matriz cuadrada conocida adem´as simetrica y definida positiva

74

4.2. M´etodo del M´aximo Descenso

Notaci´on

a

a

.

.

.

a n,1

1,1

2,1

Teorema 16 La forma cuadr´atica

a 1,2 ··· a 2,2 ··· .

. a n,2 ···

.

Ax = b

1,n

2,n

.

a n,n

a

a

x

x

.

.

.

x

1

2

n

=

f(x) = 1 2 x t Ax b t x + c

Donde x: vector de incognitas, b: vector conocido, A: matriz cuadrada conocida c: escalar

b

b

.

.

.

b

1

2

n

(4.2)

Mostraremos que si A es simetrica y definida positiva f (x) es minimiza- da por la solucion de Ax = b

Demostraci´on

En efecto

=Como A es definida positiva, la superficie de f (x) es un paraboloide. En el fondo del paraboloide la gradiente es cero, f (x) es minimizado cuando f (x) = 0,

f (x) = 1

1

2 A t x + 2 Ax b

como A es sim´etrica la ecuaci´on se reduce a

f (x) = Ax b

(4.3)

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

75

Si igualamos a cero la gradiente (4,3) , obtenemos la ecuaci´on (4,1) As´ı

f (x) = Ax b = 0

Ax = b

Observamos que la soluci´on de

Ax = b

es un punto critico de f (x).

= Si A es definida positiva y sim´etrica, la soluci´on es un m´ınimo de f ( x ) Pues si Ax = b

En la ecuaci´on (4,2)

f(x + e)

=

1 2 (x + e) t A(x + e) b t (x + e) + c

=

1 2 (x t + e t )(Ax + Ae) b t x b t e + c

=

1 2 (x t Ax + e t Ax + x t Ae) b t x b t e + c

= 1 2 x t Ax b t x + c

f(x)

1

1

+ 2 e t Ae + 2 (e t Ax + x t Ae) b t e

= f(x) + 1 2 e t Ae + 2 e t Ae + 1 2 (e t b + b t e) b t e

1

1

= f(x) + 1 2 e t Ae + 2 e t Ae + 1 2 (2b t e) b t e

76

4.2. M´etodo del M´aximo Descenso

 

=

f(x + e)

=

f(y)

=

f(x) +

1

2 e t Ae + b t e b t e

1

f(x) +

2

1

e t Ae

f(x) + 2 (y x) t A(y x)

Si x

= y entonces (y x) t A(y x) > 0

positiva

As´ı

f(y) > f(x)

As´ı x minimiza f.

y x

= 0 pues

x

= y

A es definida

Ahora si A no es sim´etrica la ecuaci´on (3,11) queda

f (x) = 1 2 (A t + A)x b

Isinua la soluci´on del sistema

1

2 (A t + A)x = b

Donde la matriz A t + A es sim´etrica

M´etodo del M´aximo Descenso

Nosotros empezamos tomando un punto arbitrario x 0 y deslizamos hacia el fondo del paraboloide , nosotros tomamos una serie de pasos x 1 , x 2 , x 3 , ,hasta que estemos satisfechos con la aproximaci´on para dar la soluci´on. Cuando nosotros tomamos un paso, nosotros escogemos la direcci´on en la cual f decrece m´as r´apidamente la cual es la direcci´on opuesta de f (x i ) de acuerdo a la ecuaci´on (3,12) esta direcci´on es

f (x (i) ) = b Ax (i)

Vamos a intriducir unas definiciones.

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

77

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales 77 Figura 4.2: Cuando la matriz A ,es

Figura 4.2: Cuando la matriz A,es sim´etrica y definida positiva el gr´afico de f (x) se ve como un paraboloide

El Error

e (i)

=

soluci´on.

x (i) x es un vector el cual indica que tan lejos estamos de la

El Residual

r (i) = b Ax (i) indica que tan lejos estamos del valor correcto de vemos que r (i) = Ae (i) pues

b

r

r

(i)

(i)

=

b A x(i)

=

Ax Ax (i)

=

A(x x (i) )

= A(x (i) x) = Ae (i)

Nosotros pensamos en el Residual como una transformaci´on por A dentro del mism,o espacio que b . M´as importancia r (i) = f (x (i) ) y debemos pensar inclusive en el residual como una direcci´on del descenso r´apido. Cuando veamos Residual pensaremos en la direcci´on de la pendiente descen- dente. Supongamos que nosotros empezamos en x (0) , nuestro primer paso, siguiendo la direcci´on del descenso rapido, caera en algun lugar sobre la linea de de direccion r (0) , nosotros escogemos un punto x (1) = x (0) + αr (0) C´ual es el valor de α en la base de la par´abola ?

78

4.2. M´etodo del M´aximo Descenso

α minimiza f cuando la derivada direccional cadena

α f(x (1) ) = 0 por la regla de la

α f(x (1) ) = f (x (1) ) t α x (1) = f (x (1) ) t r (0) = 0

pues x (1) = x (0) + αr (0)

Es decir α deberia ser escogida de manera que r (0) y f (x (1) ) sean ortogonales. Es decir r (1) t .r (0) = 0 pues f (x (1) ) = r (1)

[b

[b

(b

Ax (1) ) t .r (0)

= 0

= 0

Ax (0) αAr (0) ] t .r (0) = 0

A(x (0) + αr (0) )] t .r (0)

[b Ax (0) ] t .r (0) α[Ar (0) ] t .r (0) = 0

Ax (0) ] t .r (0) = α[Ar (0) ] t .r (0)

[b

r t

(0)

(0) .r (0) = αr (0) t (Ar (0) )

r t

α =

r t

(0) .r (0)

r t

(0) Ar (0)

= 0

Poniendo todo junto, el m´etodo de descenso rapido queda

r

α

(i)

(i)

x (i+1)

= b A x(i)

=

=

r

t (i) .r (i)

r

t (i) Ar (i)

x (i) + α (i) r (i)

El algoritmo como esta escrito requiere de dos matrices-vectores, multipli- cado por iteraci´on. En general el costo computacional del algoritmo iterativo es dominado por la productos matriz-vector, afortunadamente una puede ser eliminada por premultiplicaci´on a los dos lados de la ecuaci´on (3,15) por A y agregando b nosotros tenemos.

r (i+1) = r (i) α (i) Ar (i)

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

79

A pesar de la ecuaci´on (3,13) es necesario conputar r (0) , la ecuaci´on (3,16) puede ser usada por todas las iteraciones. El producto Ar, el c´ual ocurre en dos ecuaciones (3,14) (3,15) necesita solo ser computado una vez. La desventaja de usar estas recurrencias, es que la recurrencia definida por (3,16) es generada sin ningun retroalimentamiento del vector x (i) para con- verger en algun punto cerca a x. El algoritmo modificado es el siguiente :

x (0)

r (0)

α (i)

x

r

(i+1)

(i+1)

=

=

=

=

=

dado

b A x(0)

r t

(i) .r (i)

r t

(i) Ar (i)

x (i) +

α (i) r (i)

r (i) α (i) Ar (i)

Teorema 17 Sea A una matriz simetrica y definida positiva, entonces el m´etodo de la gradiente conjugada es convergente para cualquier dato inicial que se tome x 0 y

e (k+1) A k 2 (A) 1 k 2 (A) + 1

e (k) A ,

k = 0, 1, 2,

Donde · A es la norma energia.

Demostraci´on

Sea x k la soluci´on generada por el m´etodo de la gradiente en el k-esimo

paso. Entonces sea x

de Richardson con par´ametro optimo a partir de x k , i.e x R = x k + α opt r k . Del teorema 9 tenemos:

un vector generado por el m´etodo no precondicionado

k+1

R

k

e

(k+1)

R

A k 2 (A) 1

k 2 (A) + 1

e (k) A

Donde e

(k+1)

R

= x

(k+1)

R

x

4.3. M´etodo de la Gradiente Conjugada

Revisarenos el m´etodo de la gradiente conjugada para funciones cuadr´ati- cas. Este m´etodo fue desarrollado por Hastenes y stiefel (1952) para ecuacio-

80

4.3. M´etodo de la Gradiente Conjugada

nes lineales, vamos a tomar un conjunto A-ortogonal de busqueda de direc-

ciones d 0 , d 1 ,

paso y ese paso queremos que sea justo del largo correcto. El m´etodo de la

gradiente conjugada modifica la expresi´on

d n1 en cada direcci´on, nosotros tomaremos exactamente un

r (m) = b A x(m) = f (x (m) )

sustituyendola por otra expresi´on, que hace intervenir la direcci´on de bus- queda anterior d (m1) en la forma siguiente

d (m) = r (m) + β (m1) d (m1)

El valor del coeficiente β (m1) que es el paso se calcula con la condici´on de que la nueva direcci´on de busqueda sea Aortogonal (o conjugada ) respecto a la direcci´on anterior.

Definici´on

 

d (m) es A-ortogonal con d (j) si d t

(m) Ad (m) = 0

De aqui

d (m1) t Ad (m) = 0 de aqui

d

d

t (m1) A(r (m) + β (m) d (m1) ) = 0

t (m1) Ar (m) + β (m1) d t (m1) Ad (m1)

β (m1) =

d t

(m1) Ar (m)

d t

(m1) Ad (m1)

El algoritmo del m´etodo del gradiente conjugado procede as´ı:

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

81

x (0)

d (0)

=

=

dado

r (0)

= b A x(0)

r (m) = b Ax (m)

β (m1)

d

α

(m)

(m)

x (m+1)

=

=

=

=

r t

(m) Ad (m1)

(m1) Ad (m1)

r (m) + β (m1) d (m1)

d t

d

t (m) .r (m)

d

t (m) Ad (m)

x (m) + α (m) d (m)

Las expresiones del algoritmo anterior admiten simplificaciones. Por ejemplo .

r (m) = b Ax (m) se puede reducir as´ı

r (m) = b A x (m1) + α (m1) d (m1)

r (m) = b Ax (m1) α (m1) Ad (m1)

r (m) = r (m1) α (m1) Ad (m1)

La ventaja de esta expresi´on es que se reduce a un unico´ producto Ad (m1) matriz por vector que hay que hacer en cada paso, con frecuencia este es el paso m´as costoso de cada iteraci´on del (MGC). Tambien la expresi´on β (m1) puede simplificarse, usando propiedades de ortogonalidad que se veran posteriormente, se puede llagar a demostrar que

β (m1) =

r t

(m) r (m)

r t

(m1) r (m1)

Por lo tanto el algoritmo queda

while

x 0 arbitrario

r (0) = b Ax (0)

d (0) = r (0)

err < err tol

y

nit < nit.max

82

4.3. M´etodo de la Gradiente Conjugada

α (m)

x

r

(m+1)

(m+1)

β (m)

d (m+1)

=

=

=

=

=

d

t (m) .r (m)

d

t (m) Ad (m)

x (m) + α (m) d (m)

r (m) α (m) Ad (m) t

r

(m+1) .r (m+1)

r t

(m) r (m)

r (m+1) + β (m) d (m)

err = nor(r)

nit = nit + 1

Teoremas de Ortogonalidad

los vectores que se van calculando con el m´etodo de la Gradiente Conju- gada satisfacen:

Teorema 18 El gradiente r (m+1) = f (m) es ortogonal a la direcci´on de d (m)

Demostraci´on

En efecto

d

d

t

(m) r (m+1)

t

(m) r (m+1)

=

d (m) t r (m) α (m) Ad (m)

= d

t

(m)

r (m)

α (m) d t (m) Ad (m)

=

d t

(m) r (m)

d t

(m) .r (m)

d

t

(m) Ad (m)

d

t

(m) Ad (m)

=

0

Observaci´on

Recordemos que

x (m+1) = x (m) + α (m) d (m) multiplicando por A y sumando b

obtenemos r (m+1) = r (m) α (m) d (m)

4. Soluci´on de Grandes Sistemas de Ecuaciones Lineales

83

Teorema 19 r (m+1) es ortogonal a r (m)

Demostraci´on

En efecto

r

r

r

t (m+1) r (m)

t (m+1) r (m)

t (m+1) r (m)

= r (m)

α (m) Ad (m) t d (m) β (m1) d (m1)

pues d (m) = r (m) + β (m1) d (m1)

=

=

=

=

=

r t

(m)

α (m) Ad t

(m) d (m) β (m1) d (m1)

r t

(m)

β (m1) r t

(m)

d (m1) α (m) d t (m