Вы находитесь на странице: 1из 56

Author(s) Manuel Antonio Oln Zrate

Matemticas para Geomecnica,


Tensores y lgebra Lineal
1a Edition
Mecnica del Medio Continuo

Notas de Fsica y Matemticas Aplicadas a


Ciencias de la Tierra
(Instituto Mexicano del Petroleo)

August 20, 2009

Springer-Verlag
Berlin Heidelberg NewYork
London Paris Tokyo
Hong Kong Barcelona
Budapest
Preface

Esta notas surgieron de la necesidad de contar con la material disponible para


estudiar los concepto de pertenecientes ela area de Geomecnica, en particular
a Mecnica de RocasThis is the preface. It is an unnumbered chapter. The
markboth TeX eld at the beginning of this paragraph sets the correct page
heading for the Preface portion of the document. The preface does not appear
in the table of contents.

Villahermosa Tabasco Mxico Manuel Antonio


Julio 2009 Oln Zrate
Contents

Part I. LGEBRA LINEAL

1. lgebra de matrices, transformaciones lineales y problema


de eingenvalores : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 3
1.1 Adicin de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Matriz Transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8


1.4.1 Representacin Matricial de un sistema de ecuaciones

lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Part II. ANLISIS VECTORIAL

2. Propiedades de los vectores : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 13


2.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.2 El problema de los eingevalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


2.3 Derivada y gradiente de funcin . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Part III. ANLISIS TENSORIAL

3. Los Tensores : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25

3.1 Convenio de suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25


3.2 La delta de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Elementos de lgebra lineal para tensores. . . . . . . . . . . . . . . . . . 28
3.4 Tensores generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5 Coordenadas curvilneas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6 Tensores de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.7 Tensores de orden 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6 Contents

3.8 Tensores de orden arbitrario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33


3.9 Reglas para las operaciones tensoriales . . . . . . . . . . . . . . . . . . . . 34

Part IV. El Tensor de deformacin

4. Tensor de deformacin y tensin : : : : : : : : : : : : : : : : : : : : : : : : : : 39


4.1 Tensor de deformacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.2 Alargamiento relativo en la deformacin . . . . . . . . . . . . . . . . . . . 40

4.3 Tensor de Tensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.4 Valor medio del tensor de tensiones . . . . . . . . . . . . . . . . . . . . . . . 43


4.5 Termodinmica de las deformaciones . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Deformaciones con temperatura y presin de poro . . . . . . . . . . 47

References : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 49
Part I

LGEBRA LINEAL
1. lgebra de matrices, transformaciones
lineales y problema de eingenvalores

En este primer capitulo abordaremos el problema del algebra de matrices, las


transformaciones lineales y el problema de eingenvalores para el calculo de
la tensiones principales en Geomecnica. De manera ms formal, el lgebra
lineal estudia conjuntos denominados espacios vectoriales, los cuales constan
de un conjunto de vectores y un conjunto de escalares, con una operacin
de suma de vectores y otra de producto entre escalares y vectores que satis-
facen ciertas propiedades. Esta teora es ampliamente usada en reas de la
fsica y matemticas como, Mecnica cuntica, Mecnica clsica, ecuaciones
diferenciales, programacin lineal, Clculo vectorial, Estadstica, economa
etc.

1.1 Adicin de matrices

Denition 1.1.1. .Una matriz m n (lese m n) es un arreglo rectagular


A de mn nmeros a smbolos encerrados en corchetes;los numeros en el
arreglo se llaman elementos y estn colocados en m renglones horizontales y
n columnas verticales.El elemento (i:j) se denota por [A]ij :

0 1
a11 a12 a1n
B a21 a22 a2n C
B C
Am n =B
B
C
C (1.1)
@ A
am1 am2 amn

Existen diversas notaciones equivalentes para las matrices como

Am n = Amn = Aij , donde i = 1; 2; ; m y j = 1; 2; ; ; n

Si para una matriz los renglones y las columnas tienen la misma dimensin
se denominan matrices cuadradas.
4 1. lgebra de matrices, transformaciones lineales y problema de eingenvalores

12
A= ,Matriz cuadrada de 2x2
35
0 1
1 4
B = @1 2 A ,Matriz de 3x2
2 2
otro tipo de matrices importantes son las matrices rengln y las matrices
columna que tienen la forma
0 1
1
A = @ 2 A , Matriz columna de 3 1
5
B = 1 0 0 ,Matriz rengln de 1 3

Denition 1.1.2. . Dos matrices A y B se pueden sumar si y slo si tienen


el mismo nmero de p renglones y el mismo nmero de q columnas. La suma
A + B de dos matrices de p q es la matriz p q que se obtiene sumando
los elementos de A y B correspondiente.

11 01
Example 1.1.1. Sean A = yB= dos matrices
20 11
Entonces
11 01 12
A+B = + =
20 11 31

Theorem 1.1.1. (leyes de la adicin). La suma de matrices es conmutativa


como asociativa. Esto es:
a) A + B = B + A (ley conmutativa)
b) A + (B + C) = (A + B) + C (ley asociativa)
c) A + 0 = 0 + A = A (elemento neutro aditivo 0)
d) A + ( A) = 0 (Inverso aditivo de A)

Denition 1.1.3. La matriz cero 0 se representa por la matriz que tiene


todos sus elementos nulos
0 1
0 0 ::: 0 0
B 0 0 ::: 0 0 C
B C
B : : : : : C
B C
0=B B : : : : : C
C
B : : : : : C
B C
@ 0 0 ::: 0 0 A
0 0 ::: 0 0
1.2 Producto de matrices 5

11
Example 1.1.2. . Sea A = entonces el inverso aditivo de esta matriz
20
1 1
seria A= y la suma de esta dos matrices
2 0

11 1 1 00
A + ( A) = + = =0
20 2 0 00

Ahora veamos una ultima denicin que trata sobre la multiplicacin de


una matriz por un nmero o escalar

Denition 1.1.4. Sea A una matriz de p q y r un nmero real o com-


plejo.Entonces el mltiplo escalar rA de r y A es la matriz p q

r[A]ij = [rA]ij

11 01
Example 1.1.3. Sean A = y B = dos matrices, calculamos
20 11
2A 4B como

11 01 22 0 4 2 2
2A 4B = 2 4 = + =
20 11 40 4 4 0 4

1.2 Producto de matrices


Denition 1.2.1. .Sea A una matriz de p q y B una matriz de q r
entonces el producto de AB se dene com la matriz p r tal que Cpr =
Apq Bqr

Debemos observar que, para que el producto AB est denido, el nmero


de columnas en A debe ser igual al nmero de renglones en B:
12
Example 1.2.1. Multiplique las siguientes matrices A2 2 = , B2 2 =
35
01
, entonces el resultado seria
13

12 01 (1)(0) + (2)(1) (1)(1) + (2)(3) 2 7


A2 2 B2 2 = = = = C2 2
35 13 (3)(0) + (5)(1) (3)(1) + (5)(3) 5 18
6 1. lgebra de matrices, transformaciones lineales y problema de eingenvalores

Example 1.2.2. Halle la multiplicacion de las siguientes matrices A2 2 =


12 1
y la matriz b2 1 = , entonces el resultado seria
35 0
12 1 (1)(1) + (2)(0) 1
A2 2 b2 1 = = = = c2 1
35 0 (3)(1) + (5)(0) 3

Theorem 1.2.1. (leyes de la multiplicacin de matrices)


a) A(BC) = (AB)C (ley asociativa)
b) A(B C) = AB AC (ley distributiva)
(A B)C = AC BC (ley distributiva)
c) AI = A (I neutro multiplicativo)
d) c(AB) = (cA)B = A(cB)
e) A0 = 0A = 0

Al igual que los nmeros reales u otras estructuras matematicas, las ma-
trices poseen elemento identidad, es decir aquel elemento de dicha estructura
matemtica que jugara el papel de nmero 1 que usamos en los numeros
reales , pero que en este caso sera un matriz. .

Denition 1.2.2. La matriz identidad I es la matriz diagonal


0 1
10... 00
B0 1 . . . 0 0C
B C
B: : : : :C
B C
I=B B: : : : :C
C
B: : : : :C
B C
@0 0 . . . 1 0A
00... 01

Note 1.2.1. Esta matriz tambien es llamada en anlisis tensorial delta de


Kronecker ij = I , para dos dimensiones la matriz identidad o delte de
Kronecker seria
1; si i = j
ij =
0; si i 6= j

12 10
Example 1.2.3. Sea A2 2 = y la matriz identidad I = al mul-
35 01
tiplicar estas matrices podemos observar que en la multiplicacin se conserva
el valor de A2 2
12 10 (1)(1) + (2)(0) (1)(0) + (2)(1) 12
A2 2I = = = = A2 2
35 01 (3)(1) + (5)(0) (3)(0) + (5)(1) 35
1.3 Matriz Transpuesta 7

1.3 Matriz Transpuesta

Denition 1.3.1. Sea A una matriz de p q. La transpuesta AT de A es


la matriz q p que se obtiene intercambiando los renglones y las columnas
de A

0 1
101
Example 1.3.1. Si queremos encontrar la matriz transpuesta de A = @ 0 5 4 A
211
0 1
102
precedemos tomando la denicin anterior como AT = @ 0 5 1 A
141

Note 1.3.1. Algunas matrices muy usadas en Mecnica del medio continuo
y teora de la relatividad General, son representadas por matrices que al
transpornerlas permanecen sin cambiar su forma como por ejemplo el tensor
@ui @u
de deformacin en Mecnica del medio continuo uij = 12 @x j
+ @xji ,este
tensor tiene la propiedad que al transponerlo no cambia su forma uji =
1 @ui @u
2 @xj + @xji = uij y se les denomina tensores simetricos de acuerdo con
la siguiente denicin.

Denition 1.3.2. Una matriz A (cuadrada) para la cual AT = A de modo


que Aij = Aji para toda (i; j) se dice que es simtrica.

12
Example 1.3.2. Considere la siguiente matriz A = si transponemos
23
12
esta matriz podemos observar que es simtrica , es decir AT = =A
23

32 31
Example 1.3.3. Sea B = y su matriz traspuesta sera B T =
10 20
8 1. lgebra de matrices, transformaciones lineales y problema de eingenvalores

1.4 Matriz inversa


Sabemos de los numeros reales que para cada elemento a 6= 0 existe un
elemento a 1 tal que el producto a a 1 = 1 .Ejemplo de esto son los siguientes
numeros reales multiplicados por sus inversos 2( 21 ) = 1, ( 23 )( 32 ) = 1, 5( 51 ) = 1.
Nos daremos entonces la tarea de denir elementos inversos multiplicativos
en la matrices que remplacen al proceso de divisin en los numeros reales

1
42 0 2
Example 1.4.1. Sean A = y B = 1 probaremos facilmente
20 2 1
que B , es la matriz inversa de A.
1
42 0 2 (4)(0) + (2)( 12 ) (4)( 12 ) (2)(1) 10
AB = 1 = = =I
20 2 1 (2)(0) + (0)( 12 ) (2)( 12 ) (0)(1) 01

Note 1.4.1. No todas las matrices tienen inversa. La propiedad de tener in-
versa es tan importante que las matrices con tales inversas se les conoce como
nombre de matrices no singulares como se vera en la siguiente denicin.

Denition 1.4.1. Una matriz no singular es una matriz (necesariamente


cuadrada) A que tiene una inversa A 1 tal que AA 1 = A 1 A = I. Una
matriz singular es una matriz cuadrada que no tiene inversa.

Denition 1.4.2. Determinante de una Matriz


a11 a12
Existe una operacion para una matriz A = ,cuadrada que se
a21 a22
denomina Determinante de una la matriz A; la cual se denota como
a11 a12
Det(A) = a11 a22 a21 a12 = (1.2)
a21 a22
42
Example 1.4.2. Encuentre el determinate de la matriz A =
20
Det(A) = 4 0 2 2= 2

21
Example 1.4.3. Encuentre el determinate de la matriz B =
42
21
=2 2 4 1=0
42
1.4 Matriz inversa 9

1.4.1 Representacin Matricial de un sistema de ecuaciones

lineales
Sea el siguiente sistema de dos ecuaciones lineales con dos incognitas
x+y =1
(1.3)
x y=1
una forma de escribir este sistema de ecuaciones consiste en formar un
vector columna denido como x = xy y reescribir el sistema como

1 1 x 1
= (1.4)
1 1 y 1

Ax = b (1.5)
Theorem 1.4.1. Para que un sistema de n ecuaciones con n incgnitas
tenga solucin nica, la matriz del sistema debe satisfacer que
DetA 6= 0
por lo tanto
DetA = 2 6= 0
Si multiplicamos ambos lados de la ecuacin 1.4 por la inversa de A;
1 1
1 2 2
denida como A = 1 1
2 2
1 1 1 1
2 2 1 1 x 2 2 1
1 1 = 1 1
2 2 1 1 y 2 2 1
x 1
=
y 0
Solucin de ecuaciones cuadraticas. Sea una ecuacin cuadrtica general
de la forma
ax2 + bx + c = 0 con a; b; c nmeros reales (1.6)
al ser esta ecuacin de segundo grado tendra dos raices " Ceros" de la
forma
p
b + b2 4ac
x1 =
p2a
b b2 4ac
x2 =
2a
donde las dos soluciones de la ecuacin cuadrtica signican los puntos
donde se intersecta la parbola y = ax2 + bx + c con el eje de las x:
10 1. lgebra de matrices, transformaciones lineales y problema de eingenvalores

Example 1.4.4. Hallar las raices de la ecuacin x2 x 2=0

Solucin: Identicamos los valores de la ecuacin como a = 1; b = 1; c =


2 ,entonces las soluciones seran
p
( 1) + ( 1)2 4(1)( 2)
x1 = =2
2(1)
p
( 1) ( 1)2 4(1)( 2)
x2 = = 1
2(1)
cuya grca es
y

25

20

15

10

0
-5 -2.5 0 2.5 5

x
Part II

ANLISIS VECTORIAL
2. Propiedades de los vectores

Como caso particular de las matrices, los objetos matemticos que estudiare-
mos en esta seccin seran los vectores, los cuales seran representacines de
vectores renglones o vectores columna y que denotaremos por letras negritas
y con otros simbolos como

x = x =xi = (x1 ; x2 ; ; ; xn ) = x1 x2 ; ; xn donde i = 1; 2; 3; ; ; n (2.1)

en dos dimensiones el vector x = (x1 ; x2 ) tiene la representacin de un


segmento dirigido que sale del origel al punto P = (x1 ; x2 )
y 5

3.75

2.5

1.25

0
0 1.25 2.5 3.75 5

Los vectores al igual que los numeros y las matrices se pueden sumar de
la siguientes forma

Denition 2.0.3. Suma y resta de vectores


Sean dos vectores de la misma dimensin a = (a1 ; a2;;;; an ) y b =
(b1 ; b2; ; ; ; bn ) la suma o resta de estos dos vectores sera

a b =(a1 ; a2;;;; an ) (b1 ; b2; ; ; ; bn ) = (a1 b 1 ; a2 b2 ; ; ; ; an bn )

Example 2.0.5. Sean a = (2; 1) y b = (0; 3) la suma y la resta de estos dos


vectores seria
a + b = (2; 1) + (0; 3) = (2 + 0; 1 + 3) = (2; 4)
a b = (2; 1) + (0; 3) = (2 0; 1 3) = (2; 2)
14 2. Propiedades de los vectores

Denition 2.0.4. Producto escalar de dos vectores


Sean a = (a1 ; a2 ; a3 ) y b = (b1 ; b2 ; b3 ) en R3 (En tres dimensiones) pro-
ducto escalar de dos vectores en tres dimensiones se dene como
a b = a1 b1 + a2 b2 + a3 b3 (2.2)
Recordando ideas de trigonometra podemos denir , el tamao o norma
de una vector como
p
kak = (a1 )2 + (a2 )2 + (a3 )2 1 0 (2.3)
Por otra lado el ngulo formado por los vectores a = (a1 ; a2 ; a3 ) y b =
(b1 ; b2 ; b3 ) en R3 sobre un plano esta relacionados con el producto escalar de
la siguiente manera
a b = kak kbk cos
Despejando esta expresion tenemos que el ngulpo generado por estos dos
vectores sobre un plano cticio es
a b
cos = (2.4)
kak kbk
Example 2.0.6. Sean a = (2; 1) y b = (0; 3) el producto punto de estos
vectores sera
a b =2 0 + 1 3 = 3
p
2 2
p la magnitud
p del vector a y b tomaria la forma segun 2.3 kak = 2 + 1 =
5 ,kbk = 02 + 32 = 3 , por ultimo usando estos resultados y la ecuacin
2.4 tnemos que
3 1
cos = p = p = 0:44
5(3) 5
1
= cos (0:44)

Existe un tipo muy particular de vectores que se denomina vectores uni-


tarios, estos vectores unitarios tienen la caracteristica de que su norma o
magnitud tiene un valor de 1 , de esta manera esto vectores cumplen con
kak = 1
y se denotan muchas veces como ^a , existe unos vectores que son muy comunes
en algebra lineasl con los cuales es posible expresar cualquier vector y se
denominar vectores de la base canonica k^
^{ = (1; 0; 0) ,^ ^ = (0; 0; 1)
| = (0; 1; 0); k
Estos vetores son unitarios es decir cumple con la propiedad

|k = k^ = 1
k^{k = k^
2.1 Transformaciones lineales 15

Example 2.0.7. Un vector arbitrario a = (2; 3; 5) se puede expresar en ter-


minos de esta base canonica como

a = (2; 3; 1) = 2(1; 0; 0) + 3(0; 1; 0) + 5(0; 0; 1) = 2^{+3^ ^


|+5k

Si quisieramos calcular los angulos que formar las componentes de un


vector a = (a1 ; a2 ; a3 ) con respecto a los ejes de la base canonica , llamados
cosenos directores de x; y; z tomariamos el producto escarla del vector a con
cada uno de los vectores de la base canonica como
a ^{ = kak cos = ax (2.5)
a ^| = kak cos = ay
^
a k = kak cos = az
elevando al cuadrado las estos productos puntos y sumandolos obtenemos
la siguientes identidad
2
a2x + a2y + a2z = kak (cos2 + cos2 + cos2 )

de aqui vemos que se cumple la identidad

cos2 + cos2 + cos2 =1

Por otra lado usando las identidades 2.5 para un vector unitario n
^ =
(nx ; ny ; nz ) tenemos que
n
^ ^{ = k^
nk cos = nx
n
^^| = k^nk cos = ny
n ^
^ k = k^nk cos = nz

cos = nx
cos = ny
cos = nz
que son los cosenos directores para un vector unitario

2.1 Transformaciones lineales

Las matrices u operadores lineales tienen la funcin que al ser aplicados a un


vector en dos o tres dimensiones, pueden cambiar su forma o magnitud de
forma sorprendente, entonces a las matrices que producen cambios en los vec-
tores al ser multiplicados por estas matrices les llamaremos tranformaciones
16 2. Propiedades de los vectores

lineales. Existen diversas transformaciones, la rotaciones, contraciones , ex-


pansiones ect, todas estas transformaciones se pueden representar por medio
de matrices
Las rotaciones se pueden representar como

La rotacin de los ejes coordenados x y y por un angulo se escribe


como.

x = x cos y sin (2.6)


y = x sin + y cos
que en forma matricial se puede denir.

x cos sin x
= (2.7)
y sin cos y

esta matriz de rotacion cumple con las propiedades.

RT R = 1; lo cual implica que det(R) = 1 (2.8)

todas las matrices R de 2 2 que cumplen con estas propiedades forma un


grupo, el cual es llamado SO(2): La notacin usada es S; por especial lo cual
signica que det(R) = 1 y "O" por ortogonal RT R = 1 , y adems el numero
2 indica la dimensionalidad de las matrices, y estas forman una representacin
de SO(2) [1]: Esta matriz de rotacin , rota un vector en sentido contrario
de las manecillas del reloj, como veremos en algunos ejemplos

Este anlisis es extrapolable a las rotaciones tridimensionales. Una rotacin


en tres dimensiones es una matriz de 3 3 que satisface.

det(R) = 1 (2.9)

RT R = 1 ,tambien se tiene que det(R) = 1 (2.10)

Example 2.1.1. Aplique de 90 grados al vector a = (1; 0)


Sabemos que en radianes 90 = =2; entonces las funciones trigonomtri-
cas en =2 toman el valor cos( =2) = 0; sin( =2) = 1; por lo tanto la matriz
rotacin se aplicaria como

cos sin 1 cos( =2) sin( =2) 1 0 1 1 0


= = =
sin cos 0 sin( =2) cos( =2) 0 1 0 0 1
2.2 El problema de los eingevalores 17

Example 2.1.2. Aplique una rotacion de 90 grados a los puntos de la grca


de una recta igual a y = 2x + 1

0 1 x (2x + 1)
=
1 0 2x + 1 x

(2x + 1)
Dando valores de x;a la vector encontramos que las rectas
x
son ortogonales como

Si aplicamos esta misma rotacion de 90 grados a la funcion y = sin(x);obtendriamos


gracas ortogonales de esta funcin de la forma

2.2 El problema de los eingevalores

El problema de los eingenvalores o valores propios del aleman " Eingen que
siginica propio en alemn", proviene de encontrar ciertos vectores y valores
que satisfagan la ecuacin

Ax = x (2.11)

Nos hacemos entonces la siguiente pregunta


18 2. Propiedades de los vectores

2.3 Derivada y gradiente de funcin

Ahora veamos una denicin importante de la matemticas aplicadas " La


derivada de una funcin" , este concepto desarollado por Newton y Leibniz
consiste en calcular la pendiente en un punto de una funcin arbitraria, por
ejemplo si una funcin es lineal como la funcin y = x + 1; la cual es una
recta, podemos observar que la inclinacin de esta funcin en cualquier punto
es constante
y

2.5

0
-5 -2.5 0 2.5 5

-2.5

es decir la pendiente en cualquier punto de esta linea recta es la misma, en


este caso podemos decir que la pendiente de una funcin lineal es constante.

Por otro lado si quisieramos encontrar la pendiente de una funcin mas


general, por ejemplo la funcin trigonomtrica y = sin x: Esta funcin tiene
comportamiento no lineal y por tanto la pendiente de esta funcin va cam-
biando cuando nos movemos de un punto a otro.
y 1

0.5

0
-5 -2.5 0 2.5 5

-0.5

-1

de esta manera debemos encontrar un objeto matemtico que nos diga


como va cambiando una funcin con respesto a un pametro, en otras pal-
abras encontrar algun mtodo que mida la razn de cambio de este tipo de
funciones.
Newton y Leibniz generalizaron el concepto de hallar la pendiente para
funciones no lineales y hoy el dia se conoce con nombre de " la Derivada
2.3 Derivada y gradiente de funcin 19

de una funcin". La derivada de una funcin en este contexto se usa para


encontrar la pendiente de la recta tangente en un punto de una funcin,es
decir la derivada de una funcin nos dice la manera en que una funcin va
cambiando con respecto a un parametro.

Denition 2.3.1. Derivada de una funcin


Sea f (x) una funcion denidad en los reales , la derivada de una funcin
se dene como el limite

df f (x + x) f (x)
= lim
dx x!0 x
siempre y cuando el lmite de esta expresin exista. Geomtricamente la
derivada de una funcin f (x) en un punto x0 , se interpreta como la pendiente
de la recta tangente en el punto x0 ; dfdx
(x)
= P endiente; en el punto x0:

Denition 2.3.2. Frmula de la derivada de un polinomio


Sean f (x) una funcin de la forma f (x) = xn ; n 2 R ,entoces la derivada
de esta funcin se dene como
d n
x = nxn 1
(2.12)
dx

Example 2.3.1. Encuentre la derivada de la funcin f (x) = x2


d 2
usando la frmula 2.12, encontramos que dx x = 2x ;evaluando este re-
sultado en el punto x = 2 ; vemos que la pendiente o derivada de esta funcin
vale 4

Es esta grca podemos observar como una recta corta de forma tangente en
el punto x = 2 la funcin f (x) = x2
20 2. Propiedades de los vectores

Fsicamente la derivada de una funcin, por ejemplo la posicin de una


partcula x(t) en cierto punto t;nos dara como resultado la rapidez de esa
particula en ese tiempo especicado, por otro lado si la funcin con la cual
estubieramos modelando un fenomeno biolgico, como la poblacin P (t) de
virus de la salgre de un paciente enfermo que toma medicamentos para con-
tralar su patologa , la derivada de la funcin poblacin P (t) nos daria infor-
macin de la rapidez con la que el virues se esta reproduciendo, y la rapidez
con la que el medicamento esta eliminando al virus del cuerpo humano.De
esta manera podemos observar que la razones de cambio, tasas de cambio,
rapidez con al que cambian los fenomenos naturales puede ser modelados
elegantemente con el concepto de Derivada de una funcin.

En el caso en que la funcin modele algn fenmeno natural, economico


etc, y esta funcin dependa de varias variables x; y; z existe un objeto
matemtico similar al de la derivada que remplaza este concepto para el
caso de una funcin de varias variables f = f (x; y; z), el cual reprenta un
vector que apunta en la direccin donde la funcin de varias variables cambia
mas rpidamente y este se dene como

Denition 2.3.3. Gradiente de una funcin


El gradiente de una funcin f (x; y; z) se dene como el vector de derivadas
parciales
@f @f @f
rf (x; y; z) = @x @y @z (2.13)

y mide la variacin de la funcin en cada una de la direcciones x; y; z y que


apunta en la direccin en donde la funcin cambia mas rapidamente.

@f
En notacin de indices este vector se puede ver como rf (x; y; z) = @x i
,
@f
en el cual i = 1; 2; 3 y x1 = x; x2 = y; x3 = z ,en el caso del smbolo @x que se
denomina derivada parcial, el cual es notablemente diferente la simbolo de
df
derivada dx ;dienren en que el nuevo simbolo representa la derivacin de la
funcin f (x; y; z) con respecto a una variable manteniendo ja o constantes
las otras variables.

Example 2.3.2. Encuentre el gradiente de la funcin f (x; y) = x2 y 2


aplicando la denicin 2.13 tenemos rf = @x @
(x2 y 2 ) @f
@z (x
2
y2 ) =
(2x; 2y); cuya grca sera
2.3 Derivada y gradiente de funcin 21

y 5

1
0
-5 -3.75 -2.5 -1.25 0 1.25 2.5 3.75 5
-1 x

-2

-3

-4

-5
Part III

ANLISIS TENSORIAL
3. Los Tensores

3.1 Convenio de suma

Einstein en su desarrollo de la teora de la relatividad introdujo una notacin


para las sumas que hoy en da es de mucha importancia para las diversas
reas de la fsica y matemticas.El convenio de Einstein consiste en que la
repeticin de un ndice designa ya la existencia de suma, de esta manera
podemos librarnos de los smbolos de la suma, y en lugar de ellos, interpretar
los ndices repetidos como la existencia de una suma sobre dichos ndices,
entonces de esta manera tenemos que:

n
X
a1 x1 + a2 x2 + an xn = ai xi = ai xi (3.1)
i=1

se puede expresar simplemente como

ai xi , donde i corre de 1 a n (3.2)

y el ndice i se toma como rango universal de la suma.

Supongamos que nos piden desarrollar aii xk y aij xk donde 1 i n


,1 j n si hacemos n = 2 tenemos que estas expresiones representan lo
siguiente.

aii xk = a11 xk + a22 xk


aij xj = ai1 x1 + ai2 x2
De esta manera podemos notar que existen ndices que no representan
suma, estos ndices como podemos ver, quedan libres, por lo tanto existen
dos tipos de ndices en estas expresiones tensoriales, los ndices de suma se
llamaran ndices mudos y puenden tomar los valores j = 1; 2; 3; ; ; n y los
ndices que quedan libres, los cuales se llamaran ndices libres y pueden
tomar cualquier valor particular 1,2,3,n.
26 3. Los Tensores

Ahora hagamos un ejemplo sencillo, supongamos que queremos expresar


un sistema de ecuaciones lineales de tres ecuaciones con tres incgnitas, una
forma tensorial de escribir este sistema sera.

yi = air xr (3.3)

si hacemos que r = 1; 2; 3 y i = 1; 2; 3 tenemos que esta expresin repre-


senta

y1 = a11 x1 + a12 x2 + a13 x3 (3.4)


y2 = a21 x1 + a22 x2 + a23 x3
y3 = a31 x1 + a32 x2 + a33 x3
Despus de haber visto unos ejemplos ilustrativos, estamos en la posicin
de poder enunciar tres notas importantes que no deben olvidarse para el
estudio de las sumas en esta notacin.

Cualquier expresin que contenga un ndice repetido 2 veces (ambos como


superndice, ambos como subndice, o una de cada una) , denotaran automti-
camente suma sobre los valores 1; 2; ; ; n de ndice repetido.

Cualquier ndice libre en una expresin tendr el mismo rango que los
ndices de suma, salvo se especique lo contrario.

Note 3.1.1.

Ningn ndice puede aparecer ms de dos veces en una expresin dada.

De esta manera veamos un simple ejemplo para aplicar estas ideas. Imag-
inemos que queremos encontrar el signicado de la expresin

yi = si arj xr xj (3.5)

como podemos observar, en esta expresin aparecen los ndices repetidos,


entonces estos ndices denotan suma, y debido a que aparecen dos ndices de
suma, esta expresin denota doble suma, tambin aparece un ndice libre, i
,supongamos que r; j; i puede tomar los valores 1; 2 entonces esta expresin
se puede desarrollar como.
3.2 La delta de Kronecker 27

y1 = s1 a11 (x1 )2 + s1 a12 x1 x2 + s1 a21 x2 x1 + s1 a22 (x2 )2 (3.6)


y2 = s2 a11 (x1 )2 + s2 a12 x1 x2 + s2 a21 x2 x1 + s2 a22 (x2 )2

de este clculo podemos hacer una aclaracin muy importante, cada vez
que elevemos a una cierta potencia una expresin como xi .Por ejemplo si
la quisiramos elevar al cuadrado, entonces en lugar de escribir xi xi podri-
2
amos escribir (xi ) de esta manera evitaremos penosas confusiones al realizar
nuestros clculos

3.2 La delta de Kronecker

La delta de Kronecker, es un smbolo que se utiliza en anlisis tensorial y


tiene el objetivo de aniquilar los trminos, no diagonales ,en una suma doble.

entonces la delta de Kronecker se dene como.

i ij 1,i=j
ij = j = = (3.7)
0 , i 6= j

el cual tambin posee las propiedades de simetra ij = ji , para toda


i , j , usando la ecuacion 3.7 podemos escribir por ejemplo una expresin
ij xi xj como:

2
ij xi xj = xi xi = (xi )

Supongamos que queremos calcular la derivada parcial @x@ k (aij xi xj )


@xi
donde aij = cte , @xj
= ij usando estos resultados tenemos que.

@
(aij xi xj ) = aij [ ik xj + xi jk ] = akj xj + aik xi
@xk
de esta manera la delta de Kronecker y el convenio de suma, sern muy
importantes en el desarrollo de expresiones mas complicadas que puedan
surgir del estudio de la relatividad
28 3. Los Tensores

3.3 Elementos de lgebra lineal para tensores.

En el estudio del lgebra lineal ya hemos utilizado la notacin tensorial, pero


quizs sin percatarnos de su existencia, por ejemplo un sistema de ecuaciones
lineales lo denotamos como Ax = b de esta manera si hacemos A = aij ,
x = (xj ) y b = bi , tenemos que este sistema se puede escribir como:

aij xj = bi

Por otro lado podemos reformular las ideas del lgebra lineal y la teora
de las matrices en una notacin elegante y muy til para usos prcticos.

En esta notacin (aij ) representa una matriz al igual que el lgebra lineal
y el primer subndice i indica la la y segundo j , designa las columnas, una
notacin mas completa para esto seria [aij ]mn donde aparece el nmero m
de las , y el nmero de columnas n ,de esta manera usando esta notacin
tenemos que:

2 3
a11 a12 : a1n
6 a21 a22 : a2n 7
aij =6
4 :
7 (3.8)
mn : : : 5
am
1 am
2 : am
n

2 3
a11 a12 : a1n
6 a21 a22 : a2n 7
aij =6
4 :
7 (3.9)
: : : 5
am1 am2 : amn

Los vectores reales n-dimensionales, son cualquier matriz columna v =


[xij ]n1 con componentes reales xi = xi1 y se pueden escribir usualmente como
x = xi ; y la coleccin de todos los vectores reales n-dimensionales forman el
espacio vectorial real n-dimensional denotado por Rn , de esta manera la
suma de matrices y vectores se dene componente a componente.Por ejemplo,
sea A = [aij ]mn y B = [bij ]mn entonces para la suma se tiene que.

A + B = [aij + bij ]mn (3.10)

y el producto de un escalar por un vector como [aij ]mn = [ aij ]mn

Ahora bien, si se desea expresar el producto de dos matrices entonces lo


podemos escribir como.
3.3 Elementos de lgebra lineal para tensores. 29

Sean A = [aij ]mn , B = [bij ]nk de esta manera para el producto se tiene
que.

AB = [air brj ]mk (3.11)

y para ndices superiores o mixtos tenemos.

AB = aij mn
bij nk
= air brj mk
(3.12)

AB = aij mn
bij nk
= air brj mk
(3.13)

Por lo tanto utilizando la delta de Kronecker podemos escribir la matriz


identidad como.

i ij
I=[ ij ]nn = j nn = nn
(3.14)

Otras matrices importantes son las matrices ortogonales, ya que existen


grupos de tranformaciones en los cuales sus elementos poseen matrices ortog-
onales , las cuales forman grupos ortogonales, como el grupo SO(3) , SO(2)
[1,17,18] , entonces se dice que una matriz A es ortogonal si AT = A 1 es
decir , si AT A = AAT = I.

Denition 3.3.1. Smbolo de permutacin

El simbolo ijk w con n subndices tiene el valor cero si hay dos sub-
p
ndices iguales, y el valor( 1) en caso contrario, siendo p el nmero de trans-
posiciones de ndices ,(intercambio de ndices consecutivos), requeridos para
llevar ijk w al orden natural 123 n , usando esto, podemos escribir el
determinante de una matriz A = [aij ]nn como:

det(A) = i1 i2 in a1ii a2i2 anin (3.15)

Denition 3.3.2. Producto vectorial y escalar.


30 3. Los Tensores

Sean x = (xi ), y = (yi ) entonces denimos el producto escalar de x y y


p
dado por x y = xT y =xi yi ; y denimos su norma como kxk = xi xi y el
ngulo entre dos vectores dado por.

xi yi
cos =p p donde 0 (3.16)
xj xj yk yk

Por ltimo el producto vectorial de dos vectores x = xi ei y y = yj ej


,donde ei ej = ijk ek ,se dene como:

x y =xi yj ijk ek (3.17)

3.4 Tensores generales

Antes de iniciar el estudio de los tensores generales es necesario dar algunas


deniciones de transformaciones generales de coordenadas, y las condiciones
que estas deben de cumplir para poder ser un conjunto de coordenadas ad-
misibles.

Proposition 3.4.1. Aplicaciones lineales y biyecciones

Se dice que una aplicacin T se llama biyeccin, (o aplicacin uno a


uno), si transforma cada par de puntos distintos x 6= y de su dominio en
puntos distintos T (x) 6= T (y) de su recorrido , de este modo llamaremos a
la imagen x = T (x) un conjunto completo de coordenadas admisibles para
x y el conjunto de todas esas coordenadas, ( el recorrido de T ), un sistema
coordenado.

A continuacin veamos algunos sistemas de coordenados comunes.

1) Si T es lineal el sistema de coordenadas de llama afn.

2) Si T es un movimiento rgido, este sistema se dice rectangular..


3) Los sistemas no anes se llaman coordenadas curvilneas, incluyen las
coordenadas polares, cilndricas , esfricas, etc.

Denition 3.4.1. Regla de la cadena para derivadas parciales.


3.5 Coordenadas curvilneas. 31

Sea w = f (x1 ; x2 ; ; ; xn ) y xi = xi (u1 ; u2 ; ; ; um ) con i = 1; 2; ; ; n donde


se supone la existencia de derivadas parciales continuas para estas funciones
, entonces nosotros tenemos que:

@w @f @xi
= donde 1 j m (3.18)
@uj @xi @uj

Antes de iniciar de manera ms general con la notacin tensorial, denire-


mos dos tipos de ndices que aparecern paulatinamente en este desarrollo,
de esta manera para las expresiones con subndice, les llamaremos ndices
covariantes, y para las expresiones con ndices superiores, o superndices,
les llamaremos ndices contravariantes, por lo tanto de ahora en adelante
las coordenadas de un vector en Rn seran denotadas por (x1 ; x2 ; ; ; xn ) , de
esta manera los subndices quedan sustituidos por los superndices.

3.5 Coordenadas curvilneas.

Sea una regin de Rn en la cual estan denidos dos sistemas coordenados ,


relacionados por T : xi = xi (x1 ; x2 ; ; ; xn ) donde para cada i la funcin escalar
xi (x1 ; x2 ; ; ; xn ) aplica la regin Rn en los nmeros reales, y ademas tienen
derivadas parciales continuas de segundo orden en dicha regin ( es decir esta
funciones son de clase C 2 ). Esta transformacin T ,si es biyectiva, se llama
cambio de coordenadas.Supongamos que (xi ) son las coordenadas rectangu-
lares usuales, entonces las (xi ) se llaman coordenadas curvilneas.Salvo
que T sea lineal, en cuyo caso se llaman coordenadas anes.

Denition 3.5.1. El jacobiano


@xi
Las n2 derivadas parciales @xj se suelen colocar como una matriz n n
de la forma.

0 @x1 @x1 @x1


1
@x12 @x2 : : @xn
B @x @x2 @x C
: : @x
2

@xi B @x1 @x2 n C


J= j
=B
B : : :: : C C (3.19)
@x @ : : :: : A
@xn @xn @xn
@x1 @x2 : : @xn

la matriz J se llama matriz Jacobiana , y su determinante se denota como


J = det J y es el Jacobiano de la transformacin T
32 3. Los Tensores

3.6 Tensores de primer orden

Sea un campo vectorial V = (V i ) denido en algun subconjunto U de Rn


[ es decir para cada i , la componente V i = V i (x) es un campo escalar (
funcin real) al variar x en U ] . En cada sistema de coordenadas admisibles
de una regin U que contenga U; las n-componentes V 1 ; V 2 ; ; ; ; V n de V
sern expresadas como funciones reales dadas por .

A1 ; A2 ; ; ; ; An , en el sistema (xi ) (3.20)


A1 ; A2 ; ; ; ; An en el sistema (xi ) (3.21)

donde (xi ) y (xi ) estan relacionados por T : xi = xi (xj ) y su inversa


que se denota como T 1 : xi = xi (xj ) .

Denition 3.6.1. Tensor contravariante

Se dice que el campo vectorial V es un tensor contravariante de orden 1,


( o vector contravariante) , si sus componentes (Ai ) y (Ai ) relativos a dos sis-
temas coodenados respectivos (xi ) y (xi ) obedecen la ley de transformacin.

@xi
Ai = Ar , donde 1 i n (3.22)
@xr

Denition 3.6.2. Tensor covariante

Se dice que el campo vectorial V es un tensor covariante de orden 1 ( o


vector covariante) ,si sus componentes (Ai ) y (Ai ) relativos a dos sistemas
coordenados (xi ) y (xi ) obedecen la ley de transformacin.

@xr
Ai = Ar , donde 1 i n (3.23)
@xi
3.8 Tensores de orden arbitrario 33

3.7 Tensores de orden 2

Sean V = (V ij ) un campo de matrices , es decir, (V ij ) es una matriz n n


de campos escalares V ij (x) denidos todos sobre la regin U = fxg en Rn
, de esta manera se supondr que V tiene una representacin (Aij ) en (xi )
y (Aij ) en (xi ) , donde (xi ) y (xi ) son coordenadas admisibles relacionados
por T y T 1 .

Denition 3.7.1. Tensor contravariante de orden 2.

El campo de matrices V es un tensor contravariante de orden 2 , si sus


componentes (Aij ) en (xi ) y (Aij ) en (xi ) obedecen la ley de transformacin:

@xi @xj
Aij = Ars , donde 1 i,j n (3.24)
@xr @xs
Denition 3.7.2. Tensor covariante de orden 2

El campo de matrices V es un tensor covariante de orden 2, si sus com-


ponentes (Aij ) en (xi ) y (Aij ) en (xi ) obedecen la ley de transformacin:

@xr @xs
Aij = Ars donde 1 i,j n (3.25)
@xi @xj
Denition 3.7.3. Tensor mixto de orden 2

El campo de matrices V es un tensor mixto de orden 2 contravariante


de orden 1 y covariante de orden 1, si sus componentes (Aij ) en (xi ) y (Aij )
en (xi ) obedecen la ley de transformacin.

@xi @xs
Aij = Ars donde 1 i,j n (3.26)
@xr @xj

3.8 Tensores de orden arbitrario

Sea V un campo vectorial generalizado, es decir una coleccin ordenada de


i ;i i
nm (m = p + q) campos escalares . Vj11;j22 jqp , denidos sobre una regin de
i ;i i
U de Rn denotaremos por Aj11 ;j22 jpq el conjunto de funciones componentes
en varios sistemas coordenados deidos sobre U .
34 3. Los Tensores

Denition 3.8.1. Tensor general

El campo generalizado V es un tensor de orden m = p+q , contravariante


i ;i i
de orden p y covariante de orden q , si sus componentes Aj11 ;j22 jpq en (xi )
i ;i ip
y Aj11 ;j22 jq en (xi ) obedecen la ley de transformacin:

i ;i ip r ;r rp @xi1 @xi2 @xip @xs1 @xs2 @xsq


Aj11 ;j22 jq = As11 ;s22 sq (3.27)
@xr1 @xr2 @xrp @xj1 @xj2 @xjp

3.9 Reglas para las operaciones tensoriales

En el estudio de los tensores se pueden realizar tres tipos de operaciones , la


primera es la suma usual con los tensores , la cual tiene sentido para tensores
del mismo orden covariante y contravariante respectivamente. Ahora bien,
para el producto de tensores existen 2 tipos de productos, el primero se llama
producto exterior o externo, el cual aumenta el orden del tensor resultante,
y el segundo producto llamado producto interno ,en el cual se efectua la
contraccin de ndices en los tensores, y de esta forma se reduce su orden.

Denition 3.9.1. Suma de tensores

i ;i ; i
Sean S = Sj11 ;j22 jqp y T = Tlk11;l;k2 2 lskr , haciendo p = r y q = s
denimos la ley de la suma de tensores como.

i ;i ; ip i ;i ; ip
S + T = Sj11 ;j22 jq + Tj11;j22 jq (3.28)

el cual es un tensor de igual tipo y orden que los dos tensores dados.

Denition 3.9.2. Producto externo

i ;i ; ip
El producto externo ( o exterior ) de dos tensores S = Sj11 ;j22 jq y
T = Tlk11;l;k2 2 lskr es el tensor.

i ;i ; ip
[ST] = Sj11 ;j22 jq Tlk11;l;k2 2 lskr (3.29)
3.9 Reglas para las operaciones tensoriales 35

el cual es de orden m = p + q + r + s ( suma de ordenes de S y T )


donde este tensor es (p+r)-contravariante y (q+s)-covariante, y el cual tiene
la propiedad de conmutacin [ST] = [TS] . Veamos un ejemplo claro de esto
,sean S = Skij y T = Tnlm entonces el producto externo de estos dos
tensores sera el nuevo tensor.

[ST] = Skij Tnlm ijlm


= Pkn =P (3.30)

Denition 3.9.3. Producto interno

Para formar el producto interno de dos tensores , se toman iguales un


ndice suprior (contravariante) de uno de ellos, y un ndice inferior ( covari-
ante) del otro y se efectua la suma sobre ese ndice repetido,de esta manera
lo que ocurre es que los comportamientos contravariante y covariantes se can-
celan , lo cual rebaja el orden total de los dos tensores, de esta manera sea
ia = u = lb entonces el producto interno correspondiente a ese par de ndices
ser.

i ;i ; u ip
ST =Sj11 ;j22 jq Tlk11;l;k2 2 ukrls (3.31)

de esta expresin podemos notar que existen ps + rq productos internos


ST y TS ; que en general, seran distintos entre si, cada uno de ellos dara un
tensor de orden m = p + q + r + s 2 .

Ahora veamos un ejemplo claro de esto. Sean S = S ijl y T = T am k


entonces formemos el producto ST ,para esto jemos por ejemplo i = k = u
,entonces el producto interno ser.

ST = S ujl T am
u = U jlam = U (3.32)
Part IV

El Tensor de deformacin
4. Tensor de deformacin y tensin

4.1 Tensor de deformacin

Supongamos que un punto de un medio continuo se denota como xi , al defor-


marce este punto se movera cambiara su posicin otro punto que llamaremos
xi , entonces el desplazmiento del punto inicial al punto nal quedara deter-
minado como

ui = xi xi (4.1)

en forma diferencia este desplazamiento tomara la forma dui = dxi dxi ,


despejando de este expresin el punto dxi y tomando su cuadrado podemo
encontra la distancia al origen del punto desplazado como

dl2 = dx2i (4.2)

este distancia sera por tanto la distancia al origen del nuevo punto xi despues
@ui
de la deformacin. Sabiendo por la regla de la cadena que du = @x j
dxj la
expresin 4.2 toma la forma
@ui @ui
dl2 = dxj + dxi dxk + dxi
@xj @xk
@ui @ui @ui @ui
dl2 = dxj dxk + dxj dxi + dxk dxi + dx2i
@xj @xk @xj @xk
@ui @ui @ui
dl2 = dx2i + 2 dxk dxi + dxj dxk
@xk @xj @xk
@ui 1 @uj @uj
dl2 = dx2i + 2 + dxi dxk
@xk 2 @xi @xk
@ui 1 @ui @uk
y escribiendo en forma simtrica @xk = 2 @xk + @xi tenemos que

1 @ui @uk 1 @uj @uj


dl2 = dx2i + 2 + + dxi dxk
2 @xk @xi 2 @xi @xk
40 4. Tensor de deformacin y tensin

dl2 = dx2i + 2uik dxi dxk (4.3)


donde el tensor uik se le denomina tensor de deformacin

1 @ui @uk @uj @uj


uik = + + (4.4)
2 @xk @xi @xi @xk

podemos observar que este tensor cumple con la propiedad de simtrica

uik = uki (4.5)

4.2 Alargamiento relativo en la deformacin

Como se trata de un tensor simtrico, uik puede ser diagonalizado en


cualquier punto, entonces los valores principales del tensor de deformaciones
en ese punto se representaran como u11 = u(1) ; u22 = u(2) ; u33 = u(3) .Por
otro lado el desplazmiento nal al cuadrado se puede reescribir de la siguiente
manera

dl2 = ik dxi dxk + 2uik dxi dxk

dl2 = ( ik + 2uik ) dxi dxk (4.6)


por lo tanto para lo valores principales tendremos

dl2 = 1 + 2u(1) dx21 + 1 + 2u(2) dx22 + 1 + 2u(3) dx23


p
dl = dxi = 1 + 2u(i) dxi con i = 1; 2; 3 (4.7)
entonces el alargamiento relativo sera
p
dxi dxi 1 + 2u(i) dxi dxi
=
dxi dxi
p
dxi dxi 1 + 2u(i) 1 dxi
=
dxi dxi
dxi dxi p
= 1 + 2u(i) 1 (4.8)
dxi
usualmente para deformaciones pequeas jdxi dxi j < 1 ya que jdxi j >
dxi de esta manera los terminos de segundo orden del tensor de deformacin
son pequeas para deformaciones pequeas y solo se consideran los primeros
terminos de este tensor po lo tanto uik tomara la forma

1 @ui @uk
uik = + (4.9)
2 @xk @xi
4.3 Tensor de Tensiones 41

1
de esta manera se puede ver que los desplazamiento
p son pequeos para
deformaciones pequeas y la relacin dxidxidxi = 1 + 2u(i) 1 toma la forma
p 1
1 + 2u(i) 1 1 + (2u(i) ) + 1 u(i)
2
dxi dxi
= u(i) (4.10)
dxi
es decir el alargamiento relativo para pequeas deformaciones y pequeos
desplazamientos aproximadamente igual a los valores principales de deforma-
cin.

Despejando dxi de la expresion anterior vemos que dxi = (1 + u(i) )dxi


por lo tanto el voumen despue de la deformacin sera
3 3
dV = i=1 dxi = i=1 (1 + u(i) )dxi = 3
i=1 dV (1 + u(i) )
dV = dV 1 + u(1) 1 + u(2) 1 + u(3)

haciendo estas multiplicaciones y despreciando trminos de orden superior,


obtenemosdV = dV (1 + u(1) + u(2) + u(3) )como sabemos esta suma representa
se representa como la traza o suma de los elementos diagonales de uik , por
lo tanto esta suma sera uii y el volumen despues de la deformacin tomara
la forma

dV = dV (1 + uii ) (4.11)

de esta manera el volumen relativo en la deformacin es igual a la suma


de lo elementos diagonales del tensor deformacin
dV dV
= uii (4.12)
dV

4.3 Tensor de Tensiones

Consideremos la fuerza total que se ejerce sobre el volumen de un cuerpo,


esta fuerza seria la suma de todas ls fuerzas que actuan sobre cada uno de
los elementos de volumen de la fuerza considerada , entonces tendremos
1
p
Se puede ver que para la aproximacin 1 + 2u(i) 1 u(i) se ha usando hasta
primer orden la aproximacin del Binomio de Newton para pequeos valores de
n n 1
u(i) .El binomio de Newton se dene como (a + b)n = a0! + n a 1! b + n(n
n 2
1) a 2! b2 + +,este resultado queda justicado por el hecho de se supone que
a pequeas deformaciones en el materia se tienen pequeos desplazamientos en
el mismo.
42 4. Tensor de deformacin y tensin
N
X
F1 V + F2 V + F3 V + Fi V = Fi V
i=1

entonces la fuerza total que se ejerce sobre le volumen del cuerpo sera
Z XN
FdV = lim Fi V (4.13)
V !o
i=1

donde F =Fi , es la Rfuerza por unidad


R del volumen.Sabemos por el teorema
de la divergencia que V r AdV = s A n ^ dS entonces si
@ ik
Fi = (4.14)
@xk
por el teorema de la divergencia tenemos que
Z Z I
@ ik
Fi dV = dV = ik dfk
@xk
donde dfk son la componentes del vector elemento de supercie df dirijido
en la direccin normal a la supercie y ik se denomina tensor de tensiones.
Ahora calcularemos el momento de fuerzas qye actua sobre una porcin
del cuerpo como Fi xk Fk xi y el momento que actua sobre todo el volumen
es
Z
Mik = (Fi xk Fk xi )dV (4.15)

sustituyendo la fuerza en funcin del tensor de tensiones


Z
@ il @ kl
Mik = xk xi dV
@xl @xl
usando @x@
l
( il xk ) = @@xill xk + il lk = @@xill xk + ik y @x @
l
( kl xi ) = @ kl
@xl xi +
@ kl
kl il = @xl ix + ki en la expresion anterior tenemos
Z
@ @
Mik = ( il xk ) ik ( kl xi ) + ki dV
@xl @xl
Z Z
@
Mik = ( il xk x
kl i )dV ( ik ki )dV
@xl
I Z
Mik = ( il xk kl xi )dfl + ( ki ik )dV

para que Mik sea expresable como integral sobre la supercie , se debe cumplir
ki ik = 0 , es decir el tensor de tensiones es simtrico

ki = ik (4.16)

I
Mik = ( il xk kl xi )dfl Momento (4.17)
4.4 Valor medio del tensor de tensiones 43

4.4 Valor medio del tensor de tensiones

Sabemos que la segunda Ley de Newton en el equilibrio nos dice que

Fi + gi = 0 Vector gi dirijido segun la gravedad (4.18)

si no hay fuerza de gravedad esta ecuacin se convierte en


Fi = 0 (4.19)
@ ik
=0
@xk
multiplicando por xk esta expresin e integrando sobre todo el volumen ten-
emos
Z Z Z
@ il @
xk dV = ( il xk )dV ik dV
@xl @xl
Z I Z
@ il
xk dV = il xk dfl ik dV = 0
@xl
I Z
il xk dfl ik dV = 0 (4.20)

por otro lado sabemos del calculo que el valor medio de una funcin f (x) en
[a; b] se dene como
Rb
a
f (x)dx
f= Rb
a
dx

de esta manera la ecuacin 4.20 toma la forma


I Z R
ik dV
il xk dfl = dV R
dV
I Z
il xk dfl = dV ik
I
il xk dfl = V ik

I I
1
escribiendo en forma simtrica il xk dfl = 2 ( il + li ) xk dfl se tiene
44 4. Tensor de deformacin y tensin
I
1
V ik = ( il + li ) xk dfl
2
I I
1 1
V ik = il xk dfl + li xk dfl
2 2
I I
1 1
V ik = xk ( il dfl ) + lk xi dfl
2 2
I I
1 1
V ik = xk ( il dfl ) + kl xi dfl
2 2
I I
1 1
V ik = xk ( il dfl ) + xi ( kl dfl )
2 2
I I
1 1
V ik = xk (Pi df ) + xi (Pk df )
2 2
I
1
V ik = (Pi xk + Pk xi ) df
2
y le valor medio del tensor de tensiones toma la forma
I
1
ik = (Pi xk + Pk xi ) df (4.21)
2V
es decir, el valor medio del tensor de tensiones puede hallarse a partir de
las fuerzas externas que actan sobre el cuerpo sin necesidad de resolver las
ecuaciones de equilibrio.

4.5 Termodinmica de las deformaciones

Supongamos que debido a la deformacin, ui cambia un pequea cantidad


ui , determinaremos ahora el trabajo realizado por las tensiones internas en
este cambio.Multiplicando Fi por ui e integrando tenemos
Z Z
@ ik
W dV = ui dV (4.22)
@xk
integrando por partes
@ ui
U = ui dV
, dU =
@xk
Z I
@ ik @ ik
dv = dV , v = dV = ik dfk = ik
@xk @xk
tenemos que 4.22 toma la forma
Z I Z
@ ui
W dV = ui ik dfk ik dV
@xk
4.5 Termodinmica de las deformaciones 45

considerando un medio ilimitado no deformado en el innito, podemos hacer


tender a innito la supercie
I de integracin en la primera integral, entonces
sobre ella ik = 0 y ui ik dfk = 0 por lo tanto la expreson anterio para
e trabajo toma la forma
Z Z
@ ui
W dV = ik dV
@xk
Z Z
1 @ ui
W dV = ( ik + ik ) dV
2 @xk
Z Z Z
1 @ ui 1 @ ui
W dV = ik dV + ki dV
2 @xk 2 @xk
Z Z Z
1 @ ui 1 @ uk
W dV = ik dV + ik dV
2 @xk 2 @xi
Z Z
1 @ ui @ uk
W dV = ik + dV
2 @xk @xi
Z Z
1 @ui @uk
W dV = ik + dV
2 @xk @xi
Z Z
W dV = ik uik dV

W = ik uik (4.23)
y este nos da el trabajo el variar el tensor de deformacin.

Sabemos por la termodinamica que

E=Q W (4.24)

para un proceso reversible, la cantidad de calor es T dS , donde T es la


temperatura, asi pues

dE = T dS dW (4.25)

por la ecuacin 4.23 tenemos

dE = T dS + ik duik (4.26)

esta es la relacin fundametal termodinmica para cuerpos deformados.


Si tenemos la presin hidrosttica ik = p ik
dE = T dS p ik duik
dE = T dS pduii
y sabiendo que duii = dV , la relacin termodinmica toma la forma habitual

dE = T dS pdV (4.27)
46 4. Tensor de deformacin y tensin

introduciendo la energia libre del cuerpo F = E T S , es decir dF = dE


SdT T dS = T dS + ik duik SdT T dS

dF = SdT + ik duik (4.28)

nalmente el potencial termodinamico


= E TS ik uik
=F ik uik
d = dF d ik uik ik duik
d = SdT + ik duik d ik uik ik duik
d = SdT uik d ik

d = SdT uik d ik (4.29)

de las relaciones termodinnicas 4.26, 4.28, 4.29 podemos ver dE =


@E @E
@S dS + @u ik
duik

@E
T = (4.30)
@S
@E
ik = (4.31)
@uik S
@F @F
de 4.28 dF = @T dT + @uik duik

@F
S= (4.32)
@T

@F
ik = (4.33)
@uik T

@ @
y nalmente d = @T dT + @ ik d ik

@
S= (4.34)
@T
@
uik = (4.35)
@ ik T
entonces el tensor de tensiones se puede encontrar con las expresiones
@E @F
ik = =
@uik S @uik T
4.6 Deformaciones con temperatura y presin de poro 47

4.6 Deformaciones con temperatura y presin de poro

Hemos visto entonces como deducir la energia libre apropiada para el caso de
deformaciones dependientes de la temperatura, haremos entonces lo mismo
para el caso de la presin de poro basados en Cook.

proponemos entonces la energia libre siguiente


2
1 K 2
F = K (T T0 )ull + b PP uss + uik ik ull + u (4.36)
3 2 ll

Sabemos por otro lado que el tensor de tensiones se dene en funcin de


la energia libre como

@F
ik = (4.37)
@uik

tomando el diferencial de la energia libre

1 1
dF = K (T T0 )dull + b PP duss +2 uik ik ull d uik ik ull +Kull duii
3 3

1
dF = K (T T0 ) ik duik + b PP ik duik +2 uik duik 2 uik ik dull +Kull ik duik
3
1
dF = K (T T0 ) ik duik + b PP ik duik +2 uik duik 2 ull ik duik +Kull ik duik
3
1
dF = K (T T0 ) ik + b PP ik +2 uik ull ik + Kull ik duik
3
por lo tanto el tensor de tensiones sera

1
ik = K (T T0 ) ik + b PP ik +2 uik ull ik + Kull ik (4.38)
3

usando las relaciones


E
= (4.39)
2(1 + )
E
K=
3(1 2 )
tenemos que este tensor de tensiones toma la forma

E E 1 E
ik = (T T0 ) ik + b PP ik +2 uik ull ik + ull ik
3(1 2 ) 2(1 + ) 3 3(1 2 )
48 4. Tensor de deformacin y tensin

E E
ik = (T T0 ) ik + b PP ik + uik + ull ik (4.40)
3(1 2 ) 1+ 1 2

tive chapter and listed under an unnumbered section heading.


The solutions of all exercises should be found collectively at the end of
the book, before the bibliography section.
References

1. W. Frank, A. Seeger: Appl. Phys. A 3, 66 (1988)


2. W. Greiner, D.N. Poenaru: Cluster Preformation in Closed- and Mid-shell Nu-
clei. In: Atomic and Nuclear Clusters, 2nd International Conference at San-
torini, Greece, June 28July 2, 1993, ed. by G.S. Anagnostatos, W. von Oertzen
(Springer, Heidelberg 1994) pp. 264266
3. F. Holzwarth, J. Lenz et al.: 1readme. Further Details on Layout and LATEX
code. (Springer, Berlin Heidelberg 1999)
4. B. Jirgensons: Optical Activity for Proteins and Other Macro-Molecules, 2nd
edn. (Springer, New York 1984)
5. D.M. MacKay: Visual Stability and Voluntary Eye Movements. In: Handbook
of Sensory Physiology VII/3. ed. by R. Jung (Springer, Berlin, Heidelberg 1973)
pp. 307331
6. M. Mller, F.J. Becker: On Generalized Hamiltonian Dynamics (Cambridge
University Press, Cambridge 1930)
7. S. Nakamura, M. Senoh, N. Iwasa, S. Nagahama: Jpn. J. Appl. Phys. 34, L797
(1995) W. Frank, A. Seeger: Appl. Phys. A 3, 66 (1988)
8. D.W. Ross: Lysosomes and Storage Diseases. MA Thesis, Columbia University,
New York (1977)

Вам также может понравиться